Security Lab

Prompt Injection

Уязвимость типа Prompt Injection заключается в манипуляции входными данными так, чтобы заставить систему (например, ИИ-модель или чат-бота) выполнить нежелательные или вредоносные действия. Злоумышленник вводит специальные команды или текст, который интерпретируется системой как инструкция, а не как обычный ввод пользователя. Это может привести к утечке конфиденциальной информации, выполнению несанкционированных операций или другим неблагоприятным последствиям.

ASCII Smuggling: как хакеры превратили Copilot в личного шпиона

Невидимые инструкции заставляют ИИ действовать против воли создателей.

EmailGPT: ИИ-шпион в вашем почтовом ящике

Исследователи рекомендуют немедленно удалить популярное браузерное расширение.

Gandalf — киберполигон, который не прошёл тест на безопасность

Платформа для обучения взлому нейросетей сама стала угрозой конфиденциальности.

Новый чат-бот от Microsoft «разболтал» пользователям все свои внутренние директивы

Похоже, продвинутая языковая модель не сильно озабочена проблемами конфиденциальности.