Security Lab

Галлюцинации ИИ

1614
Галлюцинации ИИ
Галлюцинации ИИ - это явление, когда нейросеть, работающая на базе языковой модели GPT-3, генерирует текст, содержащий ложную или вымышленную информацию.

Это может происходить по разным причинам, например, из-за неверных данных, предоставленных нейросети, из-за ограничений модели или из-за запрещенных тем. Галлюцинации ИИ могут приводить к неточностям в фактах, выдумкам и абсурдной информации, вводящей пользователя в заблуждение.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться

Галлюцинации ChatGPT могут использоваться для распространения вредоносных NPM-пакетов

Хакер может "сломать" ChatGPT и заставить его рекомендовать пользователям скачать вредоносный пакет.