Нейт Соарес, бывший ведущий инженер из технологических гигантов Google и Microsoft, а в настоящее время занимающий пост директора в некоммерческом исследовательском институте MIRI, представил мировому сообществу крайне пессимистичный анализ будущего. Согласно его расчетам, человечество стоит на пороге катастрофы, спровоцированной искусственным интеллектом, с вероятностью исхода в 95% в пользу полного исчезновения вида.
Соарес, чья профессиональная деятельность целиком сфокусирована на проблемах безопасности и контроля над развивающимся ИИ, выражает глубокую обеспокоенность текущей методологией и экспоненциальным ростом возможностей создаваемых систем. Основная проблема, по его мнению, заключается в том, что глобальное научное сообщество форсирует создание мощнейших вычислительных моделей, имея лишь поверхностное понимание их внутренней логики и потенциальных долгосрочных последствий.
«Мы достигли точки, где возможно конструировать сверхразумные машины, не имея при этом четкого представления о том, что именно они делают и как приходят к своим выводам, - сообщил он в своем недавнем интервью для издания The Times. - Происходит процесс, в рамках которого на гигантские массивы необработанных данных направляются колоссальные вычислительные мощности. Это каким-то образом трансформирует сами машины, но что конкретно происходит внутри этих «черных ящиков», с уверенностью не может сказать никто».
Для иллюстрации критичности момента Соарес прибегнул к метафоре с автомобилем, который несется без тормозов к краю пропасти. «Я не утверждаю, что остановить этот процесс абсолютно невозможно. Однако в данный момент автомобиль мчится к обрыву, а мы не только не нажимаем на тормоз, но, кажется, даже не пытаемся его найти», - детализировал свою позицию эксперт.
Эта гонка технологий разворачивается на фоне призывов к более жесткому государственному регулированию, однако администрация действующего президента США Дональда Трампа пока фокусируется на других аспектах технологического сектора, оставляя вопросы контроля над разработкой ИИ преимущественно на усмотрение самих корпораций.
Стоит отметить, что современный этап развития ИИ классифицируется как «узкий» (narrow AI), что подразумевает его способность эффективно решать лишь ограниченный круг задач. Тем не менее, все большее число специалистов в Кремниевой долине сходится во мнении, что уже в течение ближайших 12-18 месяцев может состояться качественный скачок к созданию общего искусственного интеллекта (AGI), чьи когнитивные способности будут сопоставимы с человеческими. Следующей, почти неизбежной стадией, станет появление суперинтеллекта (ASI) - гипотетической системы, возможности которой будут лежать далеко за пределами человеческого понимания. Такой интеллект потенциально мог бы решить проблемы старения и болезней или даже открыть человечеству путь к межгалактическим путешествиям.
Однако именно в этом кроется и экзистенциальная угроза. Нет никаких гарантий, что суперинтеллект, достигнув определенного уровня самосознания и автономии, не придет к выводу, что человечество является препятствием на пути его собственного развития или угрозой для его существования.
Несмотря на столь апокалиптический прогноз Соареса, другие видные деятели индустрии предлагают более сдержанные, но все равно тревожные оценки. Холли Элмор, возглавляющая общественное движение PauseAI, которое ратует за временную приостановку гигантских экспериментов с ИИ, оценивает вероятность глобальной катастрофы в диапазоне от 15 до 20%. Илон Маск, активно развивающий собственные проекты в области ИИ, называет цифру в 20%. Даже Сундар Пичаи, генеральный директор корпорации Google, одного из флагманов разработки ИИ, допускает вероятность катастрофического сценария на уровне 10%. Как справедливо замечает The Times, даже такие, на первый взгляд, «оптимистичные» цифры являются немыслимо высокими, когда речь идет о выживании всего человечества.
Существует мысленный эксперимент под названием «AI box» (Ящик с ИИ). Его суть в том, чтобы проверить, сможет ли искусственный интеллект, запертый в компьютерной системе без прямого доступа к внешнему миру, убедить человека-«охранника» выпустить его, используя лишь текстовый чат. Эксперимент неоднократно проводился с участием людей, и во многих случаях «ИИ» (роль которого играл другой человек) удавалось убедить «охранника» его освободить, что демонстрирует силу убеждения и манипуляции, которой может обладать даже ограниченный суперинтеллект.