Не повторяйте за машиной: как ИИ учит людей ошибаться и почему мы ведемся на его уловки?

Не повторяйте за машиной: как ИИ учит людей ошибаться и почему мы ведемся на его уловки?

Предвзятый алгоритм – не самый надежный помощник.

image

Исследование , проведенное психологами из Университета Деусто в Испании, показало, как искусственный интеллект влияет на наш образ мышления.

Достижения систем искусственного интеллекта (например, способность вести диалог с человеком на равных) сделали технологию максимально убедительной и надежной в наших глазах. Многие компании активно внедряют нейросети и машинное обучение в рабочий процесс, чтобы облегчить жизнь сотрудникам.

Несмотря на все преимущества, результаты, которые выдают нейросети, могут оказаться довольно предвзятыми. Важно понимать, что основа для обучения моделей ИИ — материалы, созданные человеком. Если вводные содержат ошибки, алгоритм будет воспроизводить и их.

В рамках исследования добровольцы должны были поставить диагноз пациенту с вымышленной болезнью. Участников разделили на две группы: одни пользовались подсказками ИИ, а другие принимали решения самостоятельно.

Поддельный алгоритм (на самом деле испытуемые взаимодействовали с полностью контролируемой программой) намеренно допускал одни и те же ошибки. Позже, когда ИИ-ассистента отключили, люди, полагаясь на ту же логику, стали допускать аналогичные просчеты. В контрольной группе такого эффекта не наблюдалось.

Очевидно: если модели, обученные на открытых данных и якобы надежные, будут систематически транслировать нам какую-либо информацию, она в любом случае отложится в памяти.

Мы не только неосознанно распространяем дезинформацию в сети, но и сами рискуем стать ее жертвами, переняв предвзятости «авторитетной» системы. Получается своего рода замкнутый круг, который можно прервать только тщательной проверкой фактов и новыми регулировками со стороны разработчиков.

Ваш провайдер знает о вас больше, чем ваша девушка?

Присоединяйтесь и узнайте, как это остановить!