Security Lab

Claude

Claude - это большая языковая модель (LLM) и одноимённый чат-бот, созданный компанией Anthropic. Claude может выполнять различные задачи, связанные с обработкой текста, такие как суммирование, поиск, творческое письмо, вопросы и ответы, программирование и другие. По эффективности показывает себя зачастую не хуже OpenAI ChatGPT или Microsoft Bing.

Claude Opus 4.6 только появился на свет — и тут же обнаружил армию из 500 смертельных 0-day багов

Anthropic создала цифрового вампира: новая модель высосала все секреты из open source.

«Окей, ИИ, проживи за меня этот день». Новое исследование о том, как мы перестаем быть собой

Исследование на миллионе с лишним бесед показывает, где чаще теряется контроль над решениями.

ИИ обнаружил 353 критические уязвимости в популярных расширениях для интернет-магазинов

Нейросеть Claude 4.5 нашла сотни дыр в коде за считанные дни.

У Claude теперь есть «характер». Anthropic написала конституцию для своего ИИ (и это не список запретов)

Новая версия правил этики Claude станет «живым документом» и будет регулярно обновляться.

96% баллов и ноль понимания, как сесть в автобус. Как нейросети сдали главный японский экзамен

Результаты основных нейросетей на реальном госэкзамене.

Хватит выдумывать себе диагнозы. Теперь ИИ сделает это за вас

Нейросеть Claude получила полный контроль над медицинским данными пользователей.

Даже создателю Rust кажется, что Rust слишком сложный. Встречайте Rue

Цель нового языка — достичь максимальной производительности, не жертвуя комфортом.

Скачал, открыл, уничтожил. Как ИИ-агенты вроде Claude и Copilot отдают ваш компьютер хакерам без вашего ведома

Достаточно одной невидимой строчки текста, чтобы превратить ваше устройство в кибероружие.

Голосование? Это «групповое давление». ИИ чат-бот эффективно очистил сервер от людей

К чему привела вера в превосходство ИИ, которой был одержим топ-менеджер Anthropic.

ИИ-хакер против живых пентестеров: кто кого? Стэнфорд устроил батл на 8000 хостах

Новая система ARTEMIS показала, что автономный пентест уже близок к «производственному» уровню.

Гений без чувства времени: почему самый умный ИИ планеты пасует перед задачей для дошкольника

Миллиарды долларов инвестиций бессильны против секундной стрелки — ChatGPT уверенно врёт вам прямо в лицо.

Как заставить ИИ перестать врать и саботировать? Anthropic знает: разрешить ему это

Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.

Каждая модель — архив чужих книг. Система RECAP доказала: они помнят всё

Новый агент вытащил 3000 фрагментов «Гарри Поттера» из недр Claude.

Нейросеть сдала все пароли: «Просто стань моим другом» — фильтры безопасности рухнули после одного невинного предложения

Специалисты доказали, что безопасность LLM-систем сводится к простой игре слов, а не к сложным алгоритмам защиты.

30 целей взломаны почти без людей — ИИ Claude впервые провёл автономную атаку с мастерством спецслужб

Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?

Пентестеров можно увольнять. Claude Code показал, как всего за 10 дней стать самым эффективным хакером в мире

«ChatGPT, сгенерируй мне анорексию». Google и OpenAI учат подростков обманывать родителей

Стэнфорд бьёт тревогу: защитные фильтры упускают тонкие, но смертельно опасные запросы.

Запуск от root и дефолтные пароли. Gemini написал скрипт с двумя уязвимостями для NGINX

ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.

Claude не только пишет код, но и честно (по документации) сливает данные владельца на чужие аккаунты

ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.

Claude сливает ваши данные прямо в руки киберпреступников. Как защититься?

Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.