Anthropic создала цифрового вампира: новая модель высосала все секреты из open source.
Исследование на миллионе с лишним бесед показывает, где чаще теряется контроль над решениями.
Нейросеть Claude 4.5 нашла сотни дыр в коде за считанные дни.
Новая версия правил этики Claude станет «живым документом» и будет регулярно обновляться.
Результаты основных нейросетей на реальном госэкзамене.
Нейросеть Claude получила полный контроль над медицинским данными пользователей.
Цель нового языка — достичь максимальной производительности, не жертвуя комфортом.
Достаточно одной невидимой строчки текста, чтобы превратить ваше устройство в кибероружие.
К чему привела вера в превосходство ИИ, которой был одержим топ-менеджер Anthropic.
Новая система ARTEMIS показала, что автономный пентест уже близок к «производственному» уровню.
Миллиарды долларов инвестиций бессильны против секундной стрелки — ChatGPT уверенно врёт вам прямо в лицо.
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Новый агент вытащил 3000 фрагментов «Гарри Поттера» из недр Claude.
Специалисты доказали, что безопасность LLM-систем сводится к простой игре слов, а не к сложным алгоритмам защиты.
Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?
Стэнфорд бьёт тревогу: защитные фильтры упускают тонкие, но смертельно опасные запросы.
ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.
ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.
Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.