ChatGPT создает убедительное фальшивое медицинское заключение

ChatGPT создает убедительное фальшивое медицинское заключение

Исследование показывает, как легко ИИ может производить фальшивые научные данные.

image

Итальянские исследователи недавно обнаружили, что данные, созданные искусственным интеллектом, могут вводить в заблуждение. Главный вывод исследования, проведенного Джузеппе Джаннаккаре, хирургом-офтальмологом из Университета Кальяри, заключается в том, что ChatGPT может генерировать убедительные, но ложные данные.

Джаннаккаре отмечает, что ChatGPT за считанные минуты создал поддельный набор данных о сотнях пациентов. Это открытие вызывает беспокойство, особенно в свете повышенной угрозы использования фальсифицированных данных в медицинских исследованиях.

Словарь Кембриджского университета даже назвал "галлюцинировать" (производство ложной информации большими языковыми моделями) словом года. Примеры неправильного использования ChatGPT уже привели к санкциям: двое адвокатов, использовавшие его для подготовки материалов по делам, были оштрафованы на 5000 долларов за использование вымышленной информации.

Исследователи использовали ChatGPT, подключенный к продвинутой модели анализа данных на Python, для генерации данных клинических испытаний по лечению кератоконуса. Однако сгенерированные данные были полностью фиктивными, несмотря на убедительность.

Джаннаккаре подчеркивает важность осознания "темной стороны ИИ" и необходимости разработки более эффективных методов обнаружения мошенничества. Он также отмечает, что адекватное использование ИИ может значительно способствовать научным исследованиям.

Статья, опубликованная в журнале JAMA Ophthalmology, указывает, что при более тщательном анализе данных можно выявить признаки фальсификации, такие как неестественное количество возрастов субъектов, заканчивающихся на 7 или 8.