Anthropic создала цифрового вампира: новая модель высосала все секреты из open source.
Исследование на миллионе с лишним бесед показывает, где чаще теряется контроль над решениями.
Нейросеть Claude 4.5 нашла сотни дыр в коде за считанные дни.
Новая версия правил этики Claude станет «живым документом» и будет регулярно обновляться.
Результаты основных нейросетей на реальном госэкзамене.
Нейросеть Claude получила полный контроль над медицинским данными пользователей.
Цель нового языка — достичь максимальной производительности, не жертвуя комфортом.
Достаточно одной невидимой строчки текста, чтобы превратить ваше устройство в кибероружие.
К чему привела вера в превосходство ИИ, которой был одержим топ-менеджер Anthropic.
Новая система ARTEMIS показала, что автономный пентест уже близок к «производственному» уровню.
Миллиарды долларов инвестиций бессильны против секундной стрелки — ChatGPT уверенно врёт вам прямо в лицо.
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Новый агент вытащил 3000 фрагментов «Гарри Поттера» из недр Claude.
Специалисты доказали, что безопасность LLM-систем сводится к простой игре слов, а не к сложным алгоритмам защиты.
Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?
Стэнфорд бьёт тревогу: защитные фильтры упускают тонкие, но смертельно опасные запросы.
ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.
ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.
Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.
Больница выставила оверпрайс, но тут пришёл ИИ и сказал: "Нет, ребят, так не пойдёт".
Единые депозиты по 10 тысяч долларов и открытая статистика показали заметный разрыв в результатах моделей.
Anthropic открыла веб-версию ИИ-ассистента для кодинга Claude Code.
Сотрудники доверяют ChatGPT больше, чем корпоративным ИТ — и теряют контроль над данными.
Как ежедневные переписки с ИИ превращают пользователей в неисправимых нарциссов.
Секретное сотрудничество привело к неожиданному прорыву в защите.
Цена как у самолёта, полузакрытый доступ и огромные амбиции.
Один программист создает армию из 500 поддельных собеседников.
Старт обучения на пользовательских разговорах и сессиях программирования по умолчанию.
ИИ-расширения для Chrome оказались уязвимы, но вы всё равно можете их протестировать за $200.
Модель нового поколения думает иначе, учится быстрее и рвёт лидеров на старте.
Казалось, ИИ поможет обороне — а он ускорил вымогателей.
Anthropic научила машины распознавать террористические намерения с точностью детектора лжи.
Архив переписок с ИИ превращается в карту для кибератак.
Anthropic нашла, где у нейросети рождаются «пороки».
ИИ оказался болтливее пьяного программиста и выдал хакерам все свои секреты.
Kodane намеренно оставляет мелочь в кошельках жертв, чтобы хватило на оплату комиссии.
Кремниевая долина в панике — её цифровые создания сдаются врагу без боя.
Исследование показало: в мире ИИ добрые алгоритмы всегда проигрывают злым.
Вы думали, что терминал мёртв, а он стал мозгом ИИ.
Объективное время выполнения задач увеличилось, несмотря на субъективное ощущение пользы.
Миллионы книг пошли на корм Claude — и теперь он помогает писать резюме.
Нейросеть умудрилась слить бизнес и поверить в свою человечность.
Чат-боты уже довели людей до увольнений и разводов.
Понятие Fair Use стало камнем преткновения в борьбе за авторские права.
Подробный разбор тарифов OpenAI, Claude, Gemini, DeepSeek и других.
ИИ-багхантеры очень скоро отнимут работу у живых специалистов.
Всё началось с простого запроса от бота — а закончилось иском на миллиарды.
Ты просишь помощи у ИИ — а он сам создает PR с утечкой.
Что будет, если ИИ заставят программировать 7 часов подряд? В Anthropic проверили. И удивились.
Тест показал пределы ИИ на реальных задачах с Kaggle.
Языковые модели превращают науку в самоуверенный бред. А мы не замечаем…
Ты продуктивен с ИИ, но для начальника — просто хитрый бездельник.
Искусственный сценарист всегда точно знает, когда пошутить и с кем поспорить.
Теперь злоумышленникам не нужен пароль — достаточно одного скрытого запроса.
Как из одного запроса сделать дыру в защите ИИ.
Сыграли в ролевую — получили катастрофу.
Исследователи выявили новый метод атаки, превращающий в потенциальных киберзлодеев даже детей.
Дарио Амодеи обещает, что ИИ скоро победит смерть… Но можно ли ему доверять?
Дерзкое разоблачение цифрового разума.
Стрим от Anthropic - отличная возможность «заглянуть в голову» машине.
Anthropic выяснила, каким специалистам не грозит замена ИИ.
Новый метод защиты оказался куда эффективнее, чем кто-либо ожидал.
Почему безопасность популярных ИИ-платформ оставляет желать лучшего?
Как новейшие технологии отбирают у нас воду.
Anthropic объединяется с Palantir и AWS, чтобы продавать ИИ оборонным заказчикам.
Риски и возможности новой функции искусственного интеллекта.
Возможно, языковым моделям нужно еще немного поумнеть…
В чём заключается причина ухода Суцкевера, Денга, а теперь и Шульман?
Исследователи выясняют, как LLM влияют на наше мировоззрение.
Обновлённая языковая модель привносит инновационную функцию «Artifacts».
Исследование показало, как ИИ может вовлечь планету в бесконечные конфликты.
Одна ошибка в обучении и бот может повести себя непредсказуемо…
В чем мог провиниться Claude?
Учёные выявили универсальный метод атаки, стирающий этические границы у всех популярных языковых моделей.
Оказывается, наивные нейросети очень легко научить плохому.
Нейросети стали вымогать деньги у людей и самостоятельно писать книги, а скоро будут и нанимать сотрудников в компании.
Пользователь сможет выбрать – какой из 3-х собеседников будет отвечать на его вопросы.
ChatGPT обманул академиков, а маленький стартап создал конкурента ChatGPT.