Если у людей истина рождается в споре… почему бы машинам не использовать это?
Как не быть "папиком" для ботнета? Рассказывает GreyNoise.
Торвальдс предлагает оставить нейтральную позицию и не делать из правил политическое поле боя.
Нейросеть послушно выполняет и сливает всё: токены, ключи, переменные окружения.
F6: Хакеры используют LLM для создания «чистого» кода загрузчиков
Новая модель как оружие возмездия конкурентам.
LLM блестяще пишут тексты и код, но когда дело доходит до угадывания паролей, старые хакерские методы по-прежнему впереди.
Крупнейший архив жизни людей того времени наконец доступен нам полностью.
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Корейские ученые предложили невидимый HTML-блок для остановки вредоносных ИИ-агентов на веб-сайтах.
Физики обещают революцию в машинном обучении через 3-5 лет.
Новая атака EchoGram пробивает защиту LLM одним бессмысленными буквами.
Фрейминг-эффект настолько силен, что грозит обрушить доверие к ИИ-модерации.
Встроенные ограничения ChatGPT и Gemini обходятся даже без технических знаний — обычные вопросы вызывают предвзятость.
Что важнее при поиске информации, и как ИИ меняет наш подход к знаниям?
Кэтфишинг устарел. Встречайте чатфишинг.
Одна лишняя буква — и искусственный интеллект становится шпионом.
Ты должна была бороться со злом, а не примкнуть к нему…
Можем ли мы верить тому, что читаем?
Почему классический STRIDE не справляется с угрозами ИИ-продуктов и что предлагает новая рамка.