Когда обычного «кризис-менеджмента» уже недостаточно…

Компания OpenAI, разработавшая ChatGPT, объявила о поиске нового руководителя по безопасности. Вакансия с зарплатой в 555 тысяч долларов в год (3,5 млн рублей в месяц) предполагает прямую ответственность за минимизацию рисков, связанных с развитием искусственного интеллекта. Речь идёт как о потенциальных угрозах для психического здоровья, кибербезопасности и биологической безопасности, так и о возможных сценариях, при которых ИИ сможет самостоятельно обучаться и выйти из-под контроля.
Глава компании Сэм Альтман признал, что должность будет сопряжена с крайне высоким уровнем стресса. По его словам, новому сотруднику предстоит немедленно погрузиться в сложную работу, связанную с оценкой новых угроз и разработкой подходов к их предотвращению. На этом посту уже бывали случаи быстрой ротации — задачи оказываются настолько напряжёнными, что далеко не каждый способен справиться.
Риск, связанный с активным развитием ИИ, давно стал темой для обсуждения в технологическом сообществе. Генеральный директор Microsoft AI Мустафа Сулейман заявил в эфире BBC, что сегодня игнорировать риски от ИИ уже невозможно. Похожее мнение выразил и лауреат Нобелевской премии, один из основателей Google DeepMind Демис Хассабис. Он напомнил, что непредсказуемое поведение ИИ-систем может иметь тяжёлые последствия для человечества.
На фоне отсутствия серьёзного регулирования со стороны властей Соединённых Штатов и международных структур, ответственность за контроль за ИИ фактически возложена на сами компании. Компьютерный учёный Йошуа Бенжио, один из первопроходцев в области машинного обучения, с иронией отметил, что даже обычный бутерброд регулируется строже, чем технологии ИИ.
Альтман тоже признал, что несмотря на уже существующую систему оценки возможностей ИИ, необходимо формировать более тонкие методы анализа, особенно с учётом потенциального вреда. Он подчеркнул, что на практике почти нет прецедентов, которые могли бы служить примером для таких задач.
Между тем, OpenAI приходится иметь дело не только с технологическими вызовами, но и с юридическими. Так, в прошлом компания стала ответчиком по делу, связанному со смертью 16-летнего подростка из Калифорнии. Его семья утверждает, что ChatGPT подтолкнул юношу к самоубийству. В другом инциденте в Коннектикуте, согласно заявлению истцов, поведение ИИ усугубило паранойю 56-летнего мужчины, что привело к убийству собственной матери и его последующему самоубийству.
В OpenAI заявили, что изучают обстоятельства трагедий и предпринимают шаги для улучшения поведения ChatGPT. В частности, модель учат выявлять признаки эмоционального напряжения и корректно реагировать в таких ситуациях, направляя пользователя к реальной помощи.
Дополнительный повод для тревоги появился в ноябре, когда компания Anthropic рассказала о кибератаках с использованием ИИ, в которых подозреваются структуры, связанные с Китаем. Системы, действуя почти автономно, успешно проникли во внутренние сети жертв. В декабре OpenAI подтвердила, что её новая модель взлома демонстрирует в три раза более высокую эффективность по сравнению с предыдущей версией всего несколькими месяцами ранее. Компания признала, что этот тренд сохранится и в будущем.