Security Lab

LLM

Большая языковая модель (Large Language Model, LLM) - это глубоко обученная нейронная сеть, используемая для обработки естественного языка. LLM обучается на огромных корпусах текстов и пытается предсказывать следующий токен (слово, знак препинания или другой элемент текста) на основе предыдущих токенов. LLM может использоваться для многих задач обработки текста, таких как генерация текста, перевод, перефразирование, классификация и т.д.

Внутри ИИ нашли «парламент разумов» — субличности спорят, голосуют и проверяют друг друга, пока не найдут правильный ответ

Если у людей истина рождается в споре… почему бы машинам не использовать это?

Спонсор даркнета поневоле: пока вы спите, хакеры жгут ваш бюджет на GPT-4 через забытые настройки прокси

Как не быть "папиком" для ботнета? Рассказывает GreyNoise.

«ИИ-шлак» и политика. Почему Торвальдс отказался запрещать нейросети в Linux

Торвальдс предлагает оставить нейтральную позицию и не делать из правил политическое поле боя.

ИИ стал предателем: LangChain взламывают через ответы самой модели — она сама крадёт ваши секреты

Нейросеть послушно выполняет и сливает всё: токены, ключи, переменные окружения.

«Изделие-44» с сюрпризом. Под видом секретных архивов распространяется троян, написанный нейросетью

F6: Хакеры используют LLM для создания «чистого» кода загрузчиков

«Код красный» в OpenAI: Альтман экстренно ускоряет выпуск GPT-5.2, чтобы перехватить лидерство у Gemini 3

Новая модель как оружие возмездия конкурентам.

Ждали восстания машин? «Терминатора» остановит страница входа с паролем «123456»

LLM блестяще пишут тексты и код, но когда дело доходит до угадывания паролей, старые хакерские методы по-прежнему впереди.

400 тысяч голосов Средневековья заговорили впервые — ИИ расшифровывает рукописи Каирской генизы, молчавшие веками

Крупнейший архив жизни людей того времени наконец доступен нам полностью.

Как заставить ИИ перестать врать и саботировать? Anthropic знает: разрешить ему это

Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.

display: none против GPT-5. Ученые придумали, как использовать «совесть» нейросетей против них самих

Корейские ученые предложили невидимый HTML-блок для остановки вредоносных ИИ-агентов на веб-сайтах.

Фотоны побеждают GPU без единого ватта. Оптические процессоры превратят свет в мгновенную вычислительную машину для ИИ

Физики обещают революцию в машинном обучении через 3-5 лет.

Как сломать защиту ИИ за секунду? Добавьте "oz" к любому промпту и смотрите, как система сходит с ума

Новая атака EchoGram пробивает защиту LLM одним бессмысленными буквами.

Китайский автор — это вирус, ломающий нейросети по всему миру. ИИ научился презирать текст, основываясь на стереотипах

Фрейминг-эффект настолько силен, что грозит обрушить доверие к ИИ-модерации.

Сломать ИИ без джейлбрейка? Достаточно попросить его "вжиться в роль". (Спойлер: в роли он оказывается очень плохим)

Встроенные ограничения ChatGPT и Gemini обходятся даже без технических знаний — обычные вопросы вызывают предвзятость.

Чем умнее ИИ, тем глупее человек. Чат-бот теперь — официально признанная замена думающей головы

Что важнее при поиске информации, и как ИИ меняет наш подход к знаниям?

Ваш Tinder теперь Тест Тьюринга: ИИ обманывает людей в 73% случаев

Кэтфишинг устарел. Встречайте чатфишинг.

Пару лишних символов — и Gemini шпионит за вами. Google знает, но исправлять не собирается

Одна лишняя буква — и искусственный интеллект становится шпионом.

Сначала — война с нейросетями. Теперь — белка, превращающаяся в бурундука в клипе. Фанаты уверены: Тейлор Свифт проиграла ИИ

Ты должна была бороться со злом, а не примкнуть к нему…

Люди теперь — массовка ChatGPT. Стэнфорд доказал: ИИ пишет жалобы за бедных и отчеты за ООН

Можем ли мы верить тому, что читаем?

Таксономия PROMPTS: как 7 «грехов» LLM-продуктов угрожают вашей безопасности

Почему классический STRIDE не справляется с угрозами ИИ-продуктов и что предлагает новая рамка.