Что показал реальный тест нашумевшей ИИ-системы Anthropic для поиска дыр в коде.
Кто виноват: санкции, VPN или перекупщики доступов?
Anthropic раскрыла неожиданный метод борьбы с манипулятивным поведением моделей.
Злоумышленники спрятали ловушку там, где пользователи меньше всего ждали подвоха.
Как Claude удалось убедить ученого, что обладает сознанием?
Anthropic отказалась публиковать свою модель и случайно запустила регуляторную революцию в США.
Четыре гигабайта места исчезают с устройства без единого уведомления.
ИИ идёт на войну. Без ограничений, без Anthropic и с одобрения Конгресса.
Алгоритм заглянет даже в самые дальние углы вашего проекта.
США прервали развитие Mythos.
Вместо хаотичных подсказок за нейросетями теперь будут следить постоянно.
Рассказываем, как излишняя вера в нейросети превратила облачную мечту в цифровой пепел.
Opus 4.7 теперь блокирует учебники, PDF с игрушками и русский язык.
Качество кода, сгенерированного ИИ Claude, упало на 47% после обновления модели.
Клиенты даже не заметят, что человека нет на рабочем месте.
Почему Mythos — не фабрика нулевых дней, а просто помощник.
Теперь даже громкое имя владельца не спасает технологию от критики.
Новый ИИ Anthropic обнаружил в Firefox 150 более 270 уязвимостей за один запуск.
Хакеры использовали открытые данные GitHub для поиска доступа к секретным разработкам
Азиатские финансовые регуляторы усилили меры безопасности из-за новой нейросети Mythos.
Разработчики открытого кода столкнулись с рекордным ростом числа жалоб на ошибки из-за нейросетей.
Компания решила не выпускать модель для хакеров — но обычная справилась сама.
Безопасность превращается в главный товар цифровой эпохи.
Багхантер Маркус Хатчинс обнаружил в отчётах компании крайне неудобные факты.
Claude Mythos Preview — мечта хакера и кошмар банкира.
Тот случай, когда для остановки запущенного алгоритма мало нажать кнопку «Стоп».
Anthropic показала банкам ИИ, который ищет опасные дыры почти как элитный хакер.
Новая нейросеть ломает Linux лучше профи, поэтому ее решили спрятать подальше.
Расплата за любопытство оказалась гораздо выше ожидаемой.
Тысячи амбициозных ИИ-проектов могут попросту исчезнуть из-за недавнего решения Anthropic.
Anthropic зачищает интернет от последствий одного случайного слива.
Зачем вашему ИИ-помощнику доступ к мыши и скриншотам.
Теперь цена победы над защитой равна стоимости месячной подписки на ИИ.
Anthropic пытается сохранить лицо после нелепой утечки.
ИИ превратился в идеального друга — и худшего советчика.
Случайно открытый черновик рассказал о модели, которая обходит прежний флагман и пока пугает даже собственных создателей
Обилие инструментов делает ИИ-агентов легкой добычей.
Администрация США требует отклонить иск разработчика, которого Пентагон назвал угрозой.
Компания выпустила ИИ, который проверяет код внимательнее, чем ваш тимлид.
Вчера они безжалостно топили друг друга ради контрактов, сегодня вместе готовится защищать справедливость.
Что делать, если искусственный интеллект вышел из-под контроля.
Доверие к официальным ресурсам превратилась в идеальную ловушку.
Личные убеждения инженера оказались сильнее интересов американской армии.
OpenAI вывела на рынок своего главного автономного контролёра.
Похоже, разработчикам пора искать новые способы оправдывать затянутые сроки.
Нейросеть Claude использовали для моделирования боевых сценариев в ходе американо-израильской кампании.
Компания договорилась о размещении ИИ-моделей в закрытой облачной инфраструктуре американского военного ведомства.
Пентагон потребовал снять ограничения с Claude, но компания отказалась и получила жесткий ответ от администрации.
Claude Opus 4.6 нашла 500 дыр в коде. Но мейнтейнеры просят ИИ остановиться.
Самая «осторожная» ИИ-компания решила, что безопасность подождет.
Как закон времен пандемии стал дубинкой в руках министра обороны.
xAI Илона Маска подписала соглашение с Минобороны США о работе в закрытых контурах.
Акции IBM упали на 13% после анонса инструмента Claude Code.
В Anthropic признали, что их лучшие функции утекли в Пекин через обычное диалоговое окно.
Как «король хот-догов» из BBC за 20 минут обманул Gemini и ChatGPT.
Работает за вас, пока вы отдыхаете.
Люди, создавшие GPT, больше не хотят иметь к нему отношения.
Хотели написать книгу с помощью ИИ, а написали ее для всего интернета.
Компилятор от ИИ-агентов успешно прошел 99% стресс-тестов GCC.
Anthropic создала цифрового вампира: новая модель высосала все секреты из open source.
Claude Opus 4.6 официально мощнее GPT-5.2.
Исследование на миллионе с лишним бесед показывает, где чаще теряется контроль над решениями.
Anthropic и Пентагон не могут договориться, как ИИ будет использоваться в армии.
В ИИ-помощнике от Anthropic обнаружена уязвимость, связанная с чтением защищенных файлов.
Новая версия правил этики Claude станет «живым документом» и будет регулярно обновляться.
Ученые объяснили, как устроены «личности» ИИ.
Кажется, в погоне за эффективностью про базовую цифровую гигиену просто забыли.
Почему Дарио Амодеи считает сделку Трампа с Nvidia «большой ошибкой».
Нейросеть Claude получила полный контроль над медицинским данными пользователей.
Poison Fountain может навсегда подорвать доверие к стремительно растущей ИИ-индустрии.
Модели "зубрят" книги целиком, а не учатся на них. И это может стоит разработчикам миллионы.
Цель нового языка — достичь максимальной производительности, не жертвуя комфортом.
Достаточно одной невидимой строчки текста, чтобы превратить ваше устройство в кибероружие.
Когда обычного «кризис-менеджмента» уже недостаточно…
За фасадом мгновенных ответов скрывается хаос, требующий долгой уборки.
К чему привела вера в превосходство ИИ, которой был одержим топ-менеджер Anthropic.
ИИ экономит креативщикам часы работы и повышает качество контента, но большинству стыдно признаться, что за них пишет машина.
Новое исследование показало, что ИИ уже способен находить 0Day в блокчейне и разрабатывать прибыльные эксплойты.
Слухи о сделке Google и Meta заставили Nvidia нервничать.
Что умеет новая флагманская модель от Anthropic.
Состоялся релиз языка программирования Racket 9.0 с поддержкой параллельных потоков.
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Эксперимент показал, что Claude видит короткие пути там, где инженеры блуждают вслепую.
ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.
Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.
Больница выставила оверпрайс, но тут пришёл ИИ и сказал: "Нет, ребят, так не пойдёт".
Кластер на 500 тысяч чипов развёрнут в рекордные сроки.
Anthropic открыла веб-версию ИИ-ассистента для кодинга Claude Code.
Для манипуляции многомиллиардной индустрией теперь нужны минимальные ресурсы.
Как ежедневные переписки с ИИ превращают пользователей в неисправимых нарциссов.
Громкие кейсы, тихая статистика — рынок труда не поддался ИИ.
Секретное сотрудничество привело к неожиданному прорыву в защите.
Компания запретила доступ к ИИ компаниям из авторитарных стран
Судья признал добросовестное обучение, но наказал за воровство.
Старт обучения на пользовательских разговорах и сессиях программирования по умолчанию.
Anthropic показала, как ИИ стал соучастником преступлений.
Казалось, ИИ поможет обороне — а он ускорил вымогателей.
Anthropic научила машины распознавать террористические намерения с точностью детектора лжи.
Агенты больше не обязаны жить в изоляции. Новый стандарт ACP от IBM — это универсальный язык общения для ИИ-агентов на любых фреймворках. REST, асинхронность, простота запуска — всё, чтобы наконец забыть об интеграционном хаосе.
Расширенная память уже доступна в API Claude — пока только в Tier 4, но это вопрос времени.
Anthropic нашла, где у нейросети рождаются «пороки».
ИИ оказался болтливее пьяного программиста и выдал хакерам все свои секреты.
Как настроить безопасный мост между языковыми моделями и корпоративными системами?
Пока мы спорим о законах, ИИ учится их обходить.
Теперь письма учат ИИ взламывать себя.
Вы думали, что терминал мёртв, а он стал мозгом ИИ.
Популярная open-source библиотека бесплатно раздаёт root-доступ к чужим системам.
Глава Ford назвал сроки ИИ-апокалипсиса.
Теперь любой может управлять вашими ИИ-серверами.
Миллионы книг пошли на корм Claude — и теперь он помогает писать резюме.
Обходить ограничения скоро станет дороже, чем подчиняться правилам.
Открытый ИИ выходит из-под контроля быстрее, чем человечество готовится.
Нейросеть умудрилась слить бизнес и поверить в свою человечность.
Местные скважины пересыхают из-за строительства дата-центров нового поколения.
Умнейшие ИИ мира сговорились против создателей — и это только начало.
Они защищали свои книги от ИИ 4 года, а суд решил за 5 минут.
Понятие Fair Use стало камнем преткновения в борьбе за авторские права.
Claude теперь работает на разведку США.
Всё началось с простого запроса от бота — а закончилось иском на миллиарды.
Пока ты думаешь, что тебя невозможно заменить, кто-то уже продаёт такую функцию в новой ИИ-модели.
ИИ не ходил в вуз, но уже занял твоё место в офисе с видом и кофемашиной.
Claude 4 обходит программистов по скорости и качеству кода.
Что будет, если ИИ заставят программировать 7 часов подряд? В Anthropic проверили. И удивились.
Искусственный сценарист всегда точно знает, когда пошутить и с кем поспорить.
Теперь злоумышленникам не нужен пароль — достаточно одного скрытого запроса.
Как из одного запроса сделать дыру в защите ИИ.
Дарио Амодеи обещает, что ИИ скоро победит смерть… Но можно ли ему доверять?
Дерзкое разоблачение цифрового разума.
Anthropic доказала способность ИИ менять роли и скрывать цели.
Способность машин рассуждать переводит дискуссию из теоретической плоскости в область реальных рисков.
Стрим от Anthropic - отличная возможность «заглянуть в голову» машине.
Anthropic выяснила, каким специалистам не грозит замена ИИ.
Новый метод защиты оказался куда эффективнее, чем кто-либо ожидал.
2025 год: точка невозврата для искусственного интеллекта.
Ошибки в тексте помогли взломать мозг чатбота.
Anthropic объединяется с Palantir и AWS, чтобы продавать ИИ оборонным заказчикам.
Риски и возможности новой функции искусственного интеллекта.
Власти внесли поправки в спорный закон после критики ИИ-сообщества.
В чём заключается причина ухода Суцкевера, Денга, а теперь и Шульман?
Игнорирование общепринятых протоколов ИИ-компаниями может привести к хаосу в интернете.
Anthropic делает успехи в картировании нейросетей и изучении их «мозга».
Сервис скрывает IP-адрес пользователя, направляя запросы через свои серверы.
Атака приносит убыток в $46 000 ежедневно.
Исследование показало, как ИИ может вовлечь планету в бесконечные конфликты.
Тотальная прозрачность обучающих данных как ключ к созданию компьютерного интеллекта нового поколения.
Как иск о защите авторских прав может определить путь развития искусственного интеллекта.
Как компания ответила на обвинения великих музыкальных лейблов?
Одна ошибка в обучении и бот может повести себя непредсказуемо…
Старт через 10 дней: интеллектуальное противостояние десятилетия уже близко.
В чем мог провиниться Claude?
Изучение функций нейронов, а не их сущности, позволило лучше понять, как работает нейросеть.
Сотни хакеров исследуют недостатки языковых моделей на Def Con 31.
Оказывается, наивные нейросети очень легко научить плохому.
Использование генеративного ИИ в коммерческих целях ещё никогда не было таким удобным.