Security Lab

Anthropic

Anthropic - это компания, которая разрабатывает искусственный интеллект с целью создания более устойчивого и разумного будущего. Специалисты Anthropic разрабатывают алгоритмы и модели, которые могут упростить управление такими сложными системами, как экономика, политика и т.д. Компания также работает над созданием более демократических и прозрачных систем принятия решений на основе искусственного интеллекта.

Как заставить нейросеть удалить всё лишнее (и нужное тоже)? Разбираемся в «токсичных потоках»

Обилие инструментов делает ИИ-агентов легкой добычей.

Пентагон внес ИИ-компанию в чёрный список за отказ сделать ИИ опаснее — и считает это совершенно логичным

Администрация США требует отклонить иск разработчика, которого Пентагон назвал угрозой.

Anthropic запустила сервис для проверки кода, который стоит как обед, но работает как senior-разработчик

Компания выпустила ИИ, который проверяет код внимательнее, чем ваш тимлид.

Бунт против Пентагона. Топы OpenAI и Google пошли в суд защищать Anthropic от принудительной милитаризации нейросетей

Вчера они безжалостно топили друг друга ради контрактов, сегодня вместе готовится защищать справедливость.

Удаление писем, кража данных и новая религия. Как новые ИИ-помощники захватывают компьютеры

Что делать, если искусственный интеллект вышел из-под контроля.

Любите «копипастить» команды? Техника «InstallFix» заставит вас пересмотреть свои привычки

Доверие к официальным ресурсам превратилась в идеальную ловушку.

«Роботы не для войны». Кейтлин Калиновски отказалась работать на Пентагон и ушла из OpenAI

Личные убеждения инженера оказались сильнее интересов американской армии.

Пока разработчики спали, ИИ нашёл 10 тысяч уязвимостей в их проектах. А исправлять кто будет?

OpenAI вывела на рынок своего главного автономного контролёра.

Конец эпохи ручного аудита? Mozilla и Anthropic доказали — ИИ находит ошибки в сотни раз быстрее людей

Похоже, разработчикам пора искать новые способы оправдывать затянутые сроки.

Бунт в Пентагоне: военные игнорируют приказ Трампа о запрете ИИ ради ударов по Ирану

Нейросеть Claude использовали для моделирования боевых сценариев в ходе американо-израильской кампании.

Рядовой GPT, к службе готов. OpenAI разместит свои нейросети в секретных облачных сетях Министерства обороны США

Компания договорилась о размещении ИИ-моделей в закрытой облачной инфраструктуре американского военного ведомства.

Увольнение по статье «Совесть». Почему Белый дом решил избавиться от самого безопасного ИИ в мире

Пентагон потребовал снять ограничения с Claude, но компания отказалась и получила жесткий ответ от администрации.

Сделать «вау» и ничего не починить: как громкий пиар ИИ от Anthropic обернулся насмешками хакеров

Claude Opus 4.6 нашла 500 дыр в коде. Но мейнтейнеры просят ИИ остановиться.

Извините, у нас гонка. Anthropic отказывается от обещания сдерживать опасный ИИ

Самая «осторожная» ИИ-компания решила, что безопасность подождет.

Либо вы с нами, либо вы – враг. Пентагон хочет, чтобы Claude воевал и не задавал лишних вопросов

Как закон времен пандемии стал дубинкой в руках министра обороны.

«MechaHitler» в Пентагоне. Илон Маск допустит свой ИИ к самым секретным планам США

xAI Илона Маска подписала соглашение с Минобороны США о работе в закрытых контурах.

Смерть «бессмертного» языка. Акции IBM рухнули, когда выяснилось, что ИИ может наконец-то убить COBOL

Акции IBM упали на 13% после анонса инструмента Claude Code.

Великий нейросетевой грабёж. Сразу три китайские компании подчистую скопировали логику работы нейросети Claude

В Anthropic признали, что их лучшие функции утекли в Пекин через обычное диалоговое окно.

ИИ верит всему, что написано на заборе. Эксперимент Томаса Жермена по взлому логики нейросетей

Как «король хот-догов» из BBC за 20 минут обманул Gemini и ChatGPT.

Claude Sonnet 4.6: новая модель Anthropic научилась управлять программами и планировать бюджет

Работает за вас, пока вы отдыхаете.