ИИ превращает социальную инженерию в конвейер, и привычные правила безопасности внезапно перестают работать.
Возможности новенького ChatGPT Translate выходят далеко за рамки привычных стандартов.
Когда обычного «кризис-менеджмента» уже недостаточно…
Реклама будет маскироваться под советы ИИ, и вы не заметите подвоха.
Отчет Similarweb показывает, как трафик вокруг генеративного ИИ перераспределяется, и лидеры меняются быстрее, чем кажется.
Все защитные барьеры рухнули под напором человеческой фантазии.
JetBrains, Figma и Cursor первыми получат доступ к корпоративной версии Gemini 3 Flash.
Почему даже самый жёсткий «безопасный режим» у нейросетей можно обойти, и при чём здесь криптография и пазлы.
Как доверие к ИИ помогло преступникам заразить Mac инфостилером AMOS под видом безобидного совета.
Чат-боты готовы выдумать любые данные, лишь бы не оставлять запрос без ответа.
Пока OpenAI рапортует о доработках безопасности ChatGPT, в США расследуют дело о сталкере, который называл ИИ своим терапевтом и ссылался на его «поддержку» в преследовании женщин.
Ученые предлагают новый подход к тому, как искать признаки сознания у животных и искусственного интеллекта, опираясь не на поведение, а на внутренние механизмы обработки информации.
Как мы будем взаимодействовать с чат-ботами в будущем и насколько им можно доверять теперь?
Миллиарды долларов инвестиций бессильны против секундной стрелки — ChatGPT уверенно врёт вам прямо в лицо.
Останется только один ИИ — и совсем не тот, к которому вы привыкли.
Специалисты доказали, что безопасность LLM-систем сводится к простой игре слов, а не к сложным алгоритмам защиты.
Специалисты предупреждают о слежке за каждым действием пользователя в сети.
Стэнфорд бьёт тревогу: защитные фильтры упускают тонкие, но смертельно опасные запросы.
Тесты по юриспруденции провалены из-за «токсичного друга» в смартфоне.
ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.