Security Lab

Галлюцинации ИИ

Галлюцинации ИИ - это явление, когда нейросеть, работающая на базе языковой модели GPT-3, генерирует текст, содержащий ложную или вымышленную информацию.

Это может происходить по разным причинам, например, из-за неверных данных, предоставленных нейросети, из-за ограничений модели или из-за запрещенных тем. Галлюцинации ИИ могут приводить к неточностям в фактах, выдумкам и абсурдной информации, вводящей пользователя в заблуждение.

Оксфордские учёные: ИИ может искажать научные факты

Способен ли ИИ подорвать научный прогресс?