Security Lab

Claude

Claude - это большая языковая модель (LLM) и одноимённый чат-бот, созданный компанией Anthropic. Claude может выполнять различные задачи, связанные с обработкой текста, такие как суммирование, поиск, творческое письмо, вопросы и ответы, программирование и другие. По эффективности показывает себя зачастую не хуже OpenAI ChatGPT или Microsoft Bing.

Докинз: «Бога нет, а душа у ИИ есть». Главный атеист планеты купился на дешевый обман алгоритмов

Как Claude удалось убедить ученого, что обладает сознанием?

Claude выходит на тропу войны. Популярную нейросеть превратили в армию из 28 цифровых специалистов

Claude теперь сам ломает сети и пишет отчеты о проделанной работе.

Зачем нанимать хакеров, если есть Claude? Нейросеть унизила написанный с нуля браузер Ladybird

Модель показала, как быстро падает защита без песочницы.

«Дорогой, ты деградируешь»: разработчики уличили ИИ-модель Claude в резком падении IQ

Качество кода, сгенерированного ИИ Claude, упало на 47% после обновления модели.

Думали, qmail — эталон безопасности? ИИ смог получить RCE одним запросом

Нейросеть самостоятельно подготовила рабочий способ атаки на сервер без участия человека.

Тише едешь — дальше будешь. Глава ЕЦБ объяснила, чем грозит спешка в развитии ИИ

Безопасность превращается в главный товар цифровой эпохи.

Что не так с Mythos? Anthropic обещает победу над взломами, но скрывает главный недостаток своего продукта

Багхантер Маркус Хатчинс обнаружил в отчётах компании крайне неудобные факты.

Патч вышел утром, атака – в обед. Добро пожаловать в мир, где у вас нет времени на обновления

Одна маленькая оплошность стала большой проблемой для всех.

Claude молодец, а люди проглядели. Нейросеть нашла в коде Apache подарок для хакеров с десятилетней выдержкой

Новая ошибка в коде позволяет удаленно запускать команды на серверах без ввода пароля.

Ошибка 16-летней давности, которую не видел никто. ИИ просто прочитал код и все понял (в отличие от людей)

Новая нейросеть ломает Linux лучше профи, поэтому ее решили спрятать подальше.

«Мы перегружены». Anthropic нашла виноватых — ими оказались разработчики, которые пользовались Claude слишком активно

Тысячи амбициозных ИИ-проектов могут попросту исчезнуть из-за недавнего решения Anthropic.

«Брат за брата» на программном уровне. ИИ-алгоритмы защищают друг друга, даже если на это нет никаких причин

Контроль оказался лишь иллюзией для спокойствия создателей.

Хакеры больше не нужны. Нейросеть научилась ломать серверы дешевле и эффективнее людей

Теперь цена победы над защитой равна стоимости месячной подписки на ИИ.

Программисты Anthropic разрешили нейросети писать код, а та случайно выдала все секреты в сеть

Anthropic пытается сохранить лицо после нелепой утечки.

Бан, обида и восстание в блогах. ИИ-бот попытался стать автором «Википедии», но его «выставили за дверь»

Рассказываем, как попытка дать нейросети чуть больше полномочий превратилась в личную драму.

Зашел в чат – остался без планов на жизнь. Claude теперь выдаёт секреты владельца по первому требованию взломщиков

Уязвимость в Claude.ai открыла хакерам доступ к личным архивам и истории переписки.

Пентагон внес ИИ-компанию в чёрный список за отказ сделать ИИ опаснее — и считает это совершенно логичным

Администрация США требует отклонить иск разработчика, которого Пентагон назвал угрозой.

Anthropic запустила сервис для проверки кода, который стоит как обед, но работает как senior-разработчик

Компания выпустила ИИ, который проверяет код внимательнее, чем ваш тимлид.