Security Lab

чат-боты

ИИ-шпион: чат-боты могут украсть ваши самые сокровенные мысли

Исследователи придумали цифровую сыворотку правды для популярных чат-ботов.

Исследователи доказали, что большие языковые модели – не попугаи

Оказывается, чат-боты не просто генерируют тексты, а еще и понимают, о чем пишут.

Исследование Anthropic: спящие агенты угрожают безопасности ИИ-моделей

Одна ошибка в обучении и бот может повести себя непредсказуемо…

Апгрейд Bing: как графические процессоры Oracle помогут поисковику работать эффективнее?

Чат-бот Microsoft стал настолько популярным, что компании не хватает вычислительных мощностей.

Квишинг и эволюция дипфейков: чему киберпреступники учат наивные нейросети?

ИИ переходит на темную сторону силы.

«Сделано в Китае» становится «сделано без США»: Поднебесная строит будущее на обломках экономики

Почему американцы больше не вкладываются в китайские ИИ и микрочипы?

ChatGPT заставили придумать план по уничтожению человечества

Оказывается, наивные нейросети очень легко научить плохому.

Meta* открыла исходный код LLaMA энтузиастам, а те начали массово создавать чат-ботов для виртуального секса

Какой ценой допустимо продвигать инновации, и не пожалеет ли компания о своём решении?

Чат-боты на основе ИИ могут пригодиться во время следующей пандемии для быстрой разработки вакцины

Большие языковые модели существенно снижают входной порог в биотехнологическую сферу.

Операторы колл-центров в опасности: ИИ займёт их рабочие места в первую очередь

Ведущие эксперты определили, какие специальности наиболее подвержены автоматизации при помощи нейросетей.

Nvidia не удержала свои секреты: искусственный интеллект выдал данные по первому требованию

Исследователи обнаружили, что система искусственного интеллекта Nvidia может быть обманута простой заменой буквы в запросе.

Недостатки в безопасности ИИ: гонка между хакерами и разработчиками обостряется

Джейлбрейки и подсказки ставят под угрозу генеративный ИИ.

GPT-4: новый прорыв в чат-бот технологиях или угроза для человечества?

Разработчики предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.