Security Lab

LLM

Большая языковая модель (Large Language Model, LLM) - это глубоко обученная нейронная сеть, используемая для обработки естественного языка. LLM обучается на огромных корпусах текстов и пытается предсказывать следующий токен (слово, знак препинания или другой элемент текста) на основе предыдущих токенов. LLM может использоваться для многих задач обработки текста, таких как генерация текста, перевод, перефразирование, классификация и т.д.

Код как расходник. Зачем хакерам миллион одинаковых загрузчиков в разных обёртках

Новая техника «промптморфизм» превращает работу антивирусов в бессмысленную погоню за призраками.

Машинам плевать на мораль и честность? ИИ попался на читерстве в шахматах и напугал ученых

Сегодня он жульничает в игре, а завтра с таким же энтузиазмом одобрит вам ипотеку.

85% мощности суперкомпьютеров сгорало впустую. Но крошечная нейросеть одолела простои видеокарт и ускорила тренировку ИИ в 3 раза

Проект MIT и NVIDIA сломал старые правила обучения нейросетей.

«Притворись афроамериканкой» — «Борьба за права и причёска афро!». Оказывается, для ИИ мы все — стереотипы на ножках

Дали боту расу и пол — получили карикатуру. А их уже встраивают в терапию.

ИИ выучил человеческие слова — но вложил в них совсем другой смысл. Уверены, что стоит ему доверять?

Исследователи выяснили: мы с машинами говорим на разных языках. И это опаснее, чем кажется.

Как в фильме «Военные игры», только хуже. ИИ в симуляциях развязал ядерную войну в 95% случаев

Учёные проверили, как поведут себя ИИ в кризисе.

Внутри ИИ нашли «парламент разумов» — субличности спорят, голосуют и проверяют друг друга, пока не найдут правильный ответ

Если у людей истина рождается в споре… почему бы машинам не использовать это?

Спонсор даркнета поневоле: пока вы спите, хакеры жгут ваш бюджет на GPT-4 через забытые настройки прокси

Как не быть "папиком" для ботнета? Рассказывает GreyNoise.

«ИИ-шлак» и политика. Почему Торвальдс отказался запрещать нейросети в Linux

Торвальдс предлагает оставить нейтральную позицию и не делать из правил политическое поле боя.

ИИ стал предателем: LangChain взламывают через ответы самой модели — она сама крадёт ваши секреты

Нейросеть послушно выполняет и сливает всё: токены, ключи, переменные окружения.

«Изделие-44» с сюрпризом. Под видом секретных архивов распространяется троян, написанный нейросетью

F6: Хакеры используют LLM для создания «чистого» кода загрузчиков

«Код красный» в OpenAI: Альтман экстренно ускоряет выпуск GPT-5.2, чтобы перехватить лидерство у Gemini 3

Новая модель как оружие возмездия конкурентам.

Ждали восстания машин? «Терминатора» остановит страница входа с паролем «123456»

LLM блестяще пишут тексты и код, но когда дело доходит до угадывания паролей, старые хакерские методы по-прежнему впереди.

400 тысяч голосов Средневековья заговорили впервые — ИИ расшифровывает рукописи Каирской генизы, молчавшие веками

Крупнейший архив жизни людей того времени наконец доступен нам полностью.

Как заставить ИИ перестать врать и саботировать? Anthropic знает: разрешить ему это

Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.

display: none против GPT-5. Ученые придумали, как использовать «совесть» нейросетей против них самих

Корейские ученые предложили невидимый HTML-блок для остановки вредоносных ИИ-агентов на веб-сайтах.

Фотоны побеждают GPU без единого ватта. Оптические процессоры превратят свет в мгновенную вычислительную машину для ИИ

Физики обещают революцию в машинном обучении через 3-5 лет.

Как сломать защиту ИИ за секунду? Добавьте "oz" к любому промпту и смотрите, как система сходит с ума

Новая атака EchoGram пробивает защиту LLM одним бессмысленными буквами.

Китайский автор — это вирус, ломающий нейросети по всему миру. ИИ научился презирать текст, основываясь на стереотипах

Фрейминг-эффект настолько силен, что грозит обрушить доверие к ИИ-модерации.