OpenAI обвинили в клевете из-за ошибки чат-бота ChatGPT

OpenAI обвинили в клевете из-за ошибки чат-бота ChatGPT

Радиожурналист подал в суд на компанию за то, что чат-бот дал о нем “галлюцинационную” информацию.

image

Компания OpenAI, занимающаяся разработкой искусственного интеллекта, столкнулась с иском о клевете от радиоведущего Марка Уолтерса, который обвинил ее в том, что чат-бот ChatGPT распространил ложные сведения о его участии в уголовном деле.

Уолтерс является основателем и ведущим популярной радиопередачи Armed American Radio, посвященной защите права граждан на ношение оружия. Он подал иск в суд штата Джорджия, требуя компенсации за моральный ущерб и удаления ложной информации.

По словам Уолтерса, все началось с того, что журналист Фред Рил, редактор сайта AmmoLand.com, обратился к чат-боту ChatGPT с просьбой сделать краткое изложение судебного иска Second Amendment Foundation (SAF) против генерального прокурора штата Вашингтон Боба Фергюсона, предоставив ссылку на судебный документ. Иск был связан с обвинением Фергюсона в злоупотреблении властью и притеснении деятельности SAF.

Однако чат-бот ChatGPT выдал ответ, в котором утверждал, что иск подал основатель и исполнительный вице-президент SAF Алан Готтлиб против Марка Уолтерса, обвинив последнего в мошенничестве и растрате средств из фонда. Уолтерс заявил, что все эти утверждения являются ложными и повредили его репутации. Он также отметил, что никогда не работал в SAF и не имеет к нему никакого отношения.

Истец оригинального дела Алан Готлиб также подтвердил, что утверждение ChatGPT было неверным.

Теперь Уолтерс требует от OpenAI выплаты штрафов и компенсаций в неуказанном размере.

Адвокат Монро уверен в успехе своего дела, но не все разделяют его мнение. Юрист Stonehouse Technology Group Кэл Эванс отметил, что, как и в большинстве случаев клеветы, пострадавшему нужно будет доказать причиненный ему вред.

«В иске говорится о “галлюцинациях”, но мы должны помнить, что мы общаемся не с человеком, а с программой, которая анализирует информацию из интернета и передает ее», — сказал Эванс. Под «галлюцинациями» ИИ понимаются случаи, когда он выдает неправильные результаты, не основанные на реальных данных.

На сайте ChatGPT есть отказ от ответственности со стороны OpenAI. Он предупреждает, что чат-бот «может давать неточную информацию о людях, местах или фактах».

Эванс полагает, что OpenAI может опираться на этот аргумент для защиты в суде, поскольку ChatGPT берет информацию из открытых источников, которые уже опубликованы в интернете.

Устали от того, что Интернет знает о вас все?

Присоединяйтесь к нам и станьте невидимыми!