Мощные нейросети теперь только для своих. ИТ-гиганты строят закрытый клуб для избранных

leer en español

Мощные нейросети теперь только для своих. ИТ-гиганты строят закрытый клуб для избранных

Теперь ИИ будут выдавать только по паспорту.

image

Похоже, гонка искусственного интеллекта вышла на новый уровень – теперь компании уже не спешат делиться своими самыми мощными разработками. OpenAI готовит продукт с продвинутыми возможностями в области кибербезопасности, но доступ к нему получит лишь узкий круг партнёров.

По данным источника, знакомого с ситуацией, компания завершает работу над инструментом, который умеет куда больше, чем обычные модели. Речь идёт не только о поиске уязвимостей, но и о более сложных задачах, связанных с анализом и потенциальным взломом систем. Именно поэтому разработчик решил не выпускать продукт в открытый доступ.

Похожий подход выбрала и Anthropic. Компания недавно объявила, что ограничит доступ к новой модели Mythos Preview и даст её только избранным технологическим компаниям и компаниям в области кибербезопасности. Причина та же – опасения из-за возможностей, связанных с взломом.

OpenAI начала двигаться в этом направлении ещё в феврале, когда запустила закрытую программу Trusted Access for Cyber после выхода модели GPT-5.3-Codex. Участники программы получают доступ к более «сильным» версиям моделей, которые помогают в защитных задачах. На поддержку участников компания выделила 10 млн долларов в виде кредитов на использование API.

Опасения вокруг таких технологий накапливались весь последний год. Бывшие чиновники и руководители в сфере безопасности предупреждали, что при неправильном использовании подобные модели способны нарушить работу водоснабжения, энергосетей или финансовых систем. Теперь такие возможности, судя по всему, уже появились.

При этом сдерживать распространение технологий надолго не получится. Как отмечают специалисты, современные модели уже умеют анализировать код, находить слабые места и исследовать устаревшие программы на уязвимости. И даже если крупные компании будут ограничивать доступ, аналогичные возможности вскоре появятся и в других системах.

Ситуация напоминает давний спор в кибербезопасности о том, как правильно раскрывать уязвимости – сразу или постепенно. Ограниченный запуск новых моделей выглядит как попытка применить тот же подход к искусственному интеллекту. При этом новый продукт OpenAI – отдельная история. Он не связан с будущей моделью Spud, о которой компания уже упоминала, и пока не ясно, какими возможностями она будет обладать и как её распространят.

Интересно, что даже без новых разработок часть подобных функций уже доступна. Существующие открытые модели способны находить некоторые уязвимости и способы их эксплуатации, которые ранее связывали с Mythos. Это означает, что технологии уже вышли за пределы лабораторий – и назад дороги нет.