OpenAI усилила модель и защиту Atlas после волны prompt injection.
Скрытые CSS-блоки в HTML заставляют модели выводить команды злоумышленников.
Когда UI пуст, а ИИ слышит команды.
Кто бы знал, что один README.md может превратить ИИ-помощника в инструмент слива данных.
ИИ учится защищать самого себя.
Нелепая 0day-уязвимость позволяет хакерам вести атаки прямо через чат-бот.
Нейросети становятся жертвой ошибки, которая подрывает доверие пользователей.
Невидимые инструкции заставляют ИИ действовать против воли создателей.
Исследователи рекомендуют немедленно удалить популярное браузерное расширение.
Платформа для обучения взлому нейросетей сама стала угрозой конфиденциальности.
Похоже, продвинутая языковая модель не сильно озабочена проблемами конфиденциальности.