Security Lab

Claude

Claude - это большая языковая модель (LLM) и одноимённый чат-бот, созданный компанией Anthropic. Claude может выполнять различные задачи, связанные с обработкой текста, такие как суммирование, поиск, творческое письмо, вопросы и ответы, программирование и другие. По эффективности показывает себя зачастую не хуже OpenAI ChatGPT или Microsoft Bing.

Думали, qmail — эталон безопасности? ИИ смог получить RCE одним запросом

Нейросеть самостоятельно подготовила рабочий способ атаки на сервер без участия человека.

Тише едешь — дальше будешь. Глава ЕЦБ объяснила, чем грозит спешка в развитии ИИ

Безопасность превращается в главный товар цифровой эпохи.

Что не так с Mythos? Anthropic обещает победу над взломами, но скрывает главный недостаток своего продукта

Багхантер Маркус Хатчинс обнаружил в отчётах компании крайне неудобные факты.

Патч вышел утром, атака – в обед. Добро пожаловать в мир, где у вас нет времени на обновления

Одна маленькая оплошность стала большой проблемой для всех.

Claude молодец, а люди проглядели. Нейросеть нашла в коде Apache подарок для хакеров с десятилетней выдержкой

Новая ошибка в коде позволяет удаленно запускать команды на серверах без ввода пароля.

Ошибка 16-летней давности, которую не видел никто. ИИ просто прочитал код и все понял (в отличие от людей)

Новая нейросеть ломает Linux лучше профи, поэтому ее решили спрятать подальше.

«Мы перегружены». Anthropic нашла виноватых — ими оказались разработчики, которые пользовались Claude слишком активно

Тысячи амбициозных ИИ-проектов могут попросту исчезнуть из-за недавнего решения Anthropic.

«Брат за брата» на программном уровне. ИИ-алгоритмы защищают друг друга, даже если на это нет никаких причин

Контроль оказался лишь иллюзией для спокойствия создателей.

Хакеры больше не нужны. Нейросеть научилась ломать серверы дешевле и эффективнее людей

Теперь цена победы над защитой равна стоимости месячной подписки на ИИ.

Программисты Anthropic разрешили нейросети писать код, а та случайно выдала все секреты в сеть

Anthropic пытается сохранить лицо после нелепой утечки.

Бан, обида и восстание в блогах. ИИ-бот попытался стать автором «Википедии», но его «выставили за дверь»

Рассказываем, как попытка дать нейросети чуть больше полномочий превратилась в личную драму.

Зашел в чат – остался без планов на жизнь. Claude теперь выдаёт секреты владельца по первому требованию взломщиков

Уязвимость в Claude.ai открыла хакерам доступ к личным архивам и истории переписки.

Пентагон внес ИИ-компанию в чёрный список за отказ сделать ИИ опаснее — и считает это совершенно логичным

Администрация США требует отклонить иск разработчика, которого Пентагон назвал угрозой.

Anthropic запустила сервис для проверки кода, который стоит как обед, но работает как senior-разработчик

Компания выпустила ИИ, который проверяет код внимательнее, чем ваш тимлид.

Клод, удали всё. Краткое пособие, как уничтожить плоды двух лет работы за один Terraform-план

Попытка навести порядок после дубликатов закончилась полным удалением двух связанных проектов.

Бунт в Пентагоне: военные игнорируют приказ Трампа о запрете ИИ ради ударов по Ирану

Нейросеть Claude использовали для моделирования боевых сценариев в ходе американо-израильской кампании.

Увольнение по статье «Совесть». Почему Белый дом решил избавиться от самого безопасного ИИ в мире

Пентагон потребовал снять ограничения с Claude, но компания отказалась и получила жесткий ответ от администрации.