Claude Opus 4.6 официально мощнее GPT-5.2.
Исследование на миллионе с лишним бесед показывает, где чаще теряется контроль над решениями.
Anthropic и Пентагон не могут договориться, как ИИ будет использоваться в армии.
В ИИ-помощнике от Anthropic обнаружена уязвимость, связанная с чтением защищенных файлов.
Новая версия правил этики Claude станет «живым документом» и будет регулярно обновляться.
Ученые объяснили, как устроены «личности» ИИ.
Кажется, в погоне за эффективностью про базовую цифровую гигиену просто забыли.
Почему Дарио Амодеи считает сделку Трампа с Nvidia «большой ошибкой».
Нейросеть Claude получила полный контроль над медицинским данными пользователей.
Poison Fountain может навсегда подорвать доверие к стремительно растущей ИИ-индустрии.
Модели "зубрят" книги целиком, а не учатся на них. И это может стоит разработчикам миллионы.
Цель нового языка — достичь максимальной производительности, не жертвуя комфортом.
Достаточно одной невидимой строчки текста, чтобы превратить ваше устройство в кибероружие.
Когда обычного «кризис-менеджмента» уже недостаточно…
За фасадом мгновенных ответов скрывается хаос, требующий долгой уборки.
К чему привела вера в превосходство ИИ, которой был одержим топ-менеджер Anthropic.
ИИ экономит креативщикам часы работы и повышает качество контента, но большинству стыдно признаться, что за них пишет машина.
Новое исследование показало, что ИИ уже способен находить 0Day в блокчейне и разрабатывать прибыльные эксплойты.
Слухи о сделке Google и Meta заставили Nvidia нервничать.
Что умеет новая флагманская модель от Anthropic.
Состоялся релиз языка программирования Racket 9.0 с поддержкой параллельных потоков.
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Эксперимент показал, что Claude видит короткие пути там, где инженеры блуждают вслепую.
ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.
Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.
Больница выставила оверпрайс, но тут пришёл ИИ и сказал: "Нет, ребят, так не пойдёт".
Кластер на 500 тысяч чипов развёрнут в рекордные сроки.
Anthropic открыла веб-версию ИИ-ассистента для кодинга Claude Code.
Для манипуляции многомиллиардной индустрией теперь нужны минимальные ресурсы.
Как ежедневные переписки с ИИ превращают пользователей в неисправимых нарциссов.
Громкие кейсы, тихая статистика — рынок труда не поддался ИИ.
Секретное сотрудничество привело к неожиданному прорыву в защите.
Компания запретила доступ к ИИ компаниям из авторитарных стран
Судья признал добросовестное обучение, но наказал за воровство.
Старт обучения на пользовательских разговорах и сессиях программирования по умолчанию.
Anthropic показала, как ИИ стал соучастником преступлений.
Казалось, ИИ поможет обороне — а он ускорил вымогателей.
Anthropic научила машины распознавать террористические намерения с точностью детектора лжи.
Агенты больше не обязаны жить в изоляции. Новый стандарт ACP от IBM — это универсальный язык общения для ИИ-агентов на любых фреймворках. REST, асинхронность, простота запуска — всё, чтобы наконец забыть об интеграционном хаосе.
Расширенная память уже доступна в API Claude — пока только в Tier 4, но это вопрос времени.
Anthropic нашла, где у нейросети рождаются «пороки».
ИИ оказался болтливее пьяного программиста и выдал хакерам все свои секреты.
Как настроить безопасный мост между языковыми моделями и корпоративными системами?
Пока мы спорим о законах, ИИ учится их обходить.
Теперь письма учат ИИ взламывать себя.
Вы думали, что терминал мёртв, а он стал мозгом ИИ.
Популярная open-source библиотека бесплатно раздаёт root-доступ к чужим системам.
Глава Ford назвал сроки ИИ-апокалипсиса.
Теперь любой может управлять вашими ИИ-серверами.
Миллионы книг пошли на корм Claude — и теперь он помогает писать резюме.
Обходить ограничения скоро станет дороже, чем подчиняться правилам.
Открытый ИИ выходит из-под контроля быстрее, чем человечество готовится.
Нейросеть умудрилась слить бизнес и поверить в свою человечность.
Местные скважины пересыхают из-за строительства дата-центров нового поколения.
Умнейшие ИИ мира сговорились против создателей — и это только начало.
Они защищали свои книги от ИИ 4 года, а суд решил за 5 минут.
Понятие Fair Use стало камнем преткновения в борьбе за авторские права.
Claude теперь работает на разведку США.
Всё началось с простого запроса от бота — а закончилось иском на миллиарды.
Пока ты думаешь, что тебя невозможно заменить, кто-то уже продаёт такую функцию в новой ИИ-модели.
ИИ не ходил в вуз, но уже занял твоё место в офисе с видом и кофемашиной.
Claude 4 обходит программистов по скорости и качеству кода.
Что будет, если ИИ заставят программировать 7 часов подряд? В Anthropic проверили. И удивились.
Искусственный сценарист всегда точно знает, когда пошутить и с кем поспорить.
Теперь злоумышленникам не нужен пароль — достаточно одного скрытого запроса.
Как из одного запроса сделать дыру в защите ИИ.
Дарио Амодеи обещает, что ИИ скоро победит смерть… Но можно ли ему доверять?
Дерзкое разоблачение цифрового разума.
Anthropic доказала способность ИИ менять роли и скрывать цели.
Способность машин рассуждать переводит дискуссию из теоретической плоскости в область реальных рисков.
Стрим от Anthropic - отличная возможность «заглянуть в голову» машине.
Anthropic выяснила, каким специалистам не грозит замена ИИ.
Новый метод защиты оказался куда эффективнее, чем кто-либо ожидал.
2025 год: точка невозврата для искусственного интеллекта.
Ошибки в тексте помогли взломать мозг чатбота.
Anthropic объединяется с Palantir и AWS, чтобы продавать ИИ оборонным заказчикам.
Риски и возможности новой функции искусственного интеллекта.
Власти внесли поправки в спорный закон после критики ИИ-сообщества.
В чём заключается причина ухода Суцкевера, Денга, а теперь и Шульман?
Игнорирование общепринятых протоколов ИИ-компаниями может привести к хаосу в интернете.
Anthropic делает успехи в картировании нейросетей и изучении их «мозга».
Сервис скрывает IP-адрес пользователя, направляя запросы через свои серверы.
Атака приносит убыток в $46 000 ежедневно.
Исследование показало, как ИИ может вовлечь планету в бесконечные конфликты.
Тотальная прозрачность обучающих данных как ключ к созданию компьютерного интеллекта нового поколения.
Как иск о защите авторских прав может определить путь развития искусственного интеллекта.
Как компания ответила на обвинения великих музыкальных лейблов?
Одна ошибка в обучении и бот может повести себя непредсказуемо…
Старт через 10 дней: интеллектуальное противостояние десятилетия уже близко.
В чем мог провиниться Claude?
Изучение функций нейронов, а не их сущности, позволило лучше понять, как работает нейросеть.
Сотни хакеров исследуют недостатки языковых моделей на Def Con 31.
Оказывается, наивные нейросети очень легко научить плохому.
Использование генеративного ИИ в коммерческих целях ещё никогда не было таким удобным.