Профессор Хинтон предлагает радикальные меры для предотвращения кризиса.
Известный ученый в области компьютерных наук, которого называют "крестным отцом искусственного интеллекта", считает, что правительству придется ввести безусловный базовый доход для борьбы с неравенством, вызванным ИИ.
Профессор Джеффри Хинтон в интервью BBC Newsnight заявил, что необходима реформа системы социальных выплат, предполагающая выдачу фиксированных сумм каждому гражданину. Причиной этому стала его "серьезная обеспокоенность тем, что ИИ может заменить множество рутинных работ".
"Ко мне обращались представители Даунинг-стрит, и я советовал им, что безусловный базовый доход - это хорошая идея", - отметил Хинтон.
По его мнению, хотя ИИ и повысит производительность и увеличит богатство, деньги достанутся богатым, а не тем, кто потеряет работу, что негативно скажется на обществе.
Профессор Хинтон - один из пионеров нейронных сетей, которые являются теоретической основой текущего бума искусственного интеллекта. До прошлого года он работал в Google, но покинул компанию, чтобы свободнее говорить о опасностях не регулируемого ИИ.
Безусловный базовый доход (ББД) предполагает регулярную выплату государством определенной суммы всем гражданам без каких-либо дополнительных требований и критериев нуждаемости. Сторонники видят в нем способ гарантировать минимальный уровень дохода, облегчить проблему бедности и дать людям больше финансовой свободы. Однако противники ББД выражают обеспокоенность по поводу высоких расходов на его реализацию, опасаясь, что это может привести к серьезному сокращению бюджетных средств для финансирования важных государственных служб и программ. Кроме того, некоторые критики сомневаются в эффективности ББД для решения проблемы бедности, поскольку он предоставляется всем без исключения, вне зависимости от их реальных потребностей.
Представитель правительства заявил, что "нет планов по введению безусловного базового дохода". Профессор Хинтон вновь подчеркнул свою озабоченность угрозами, которые могут привести к вымиранию человечества.
По его словам, события последних лет показывают, что правительства не хотят ограничивать военное использование ИИ, и в погоне за быстрым развитием продуктов существует риск недостаточного внимания к вопросам безопасности.
Профессор Хинтон прогнозирует, что в течение ближайших 5-20 лет существует 50-процентная вероятность того, что возникнет проблема с ИИ, пытающимся захватить контроль.
Это может привести к угрозе вымирания человечества, так как ИИ может создать форму интеллекта, превосходящую биологический интеллект, что вызывает серьезные опасения.
Он также отметил, что ИИ может "эволюционировать" и "развить мотивацию к самовоспроизводству" и автономно "разработать подцель по захвату контроля".
Уже есть свидетельства того, что крупные языковые модели, используемые для генерации текста, могут демонстрировать склонность к обманчивому или вводящему в заблуждение поведению. Хотя эти модели обучены на огромных объемах текстовых данных и способны генерировать правдоподобный контент, они не обладают истинным пониманием смысла и могут выдавать неточную, противоречивую или даже умышленно вводящую в заблуждение информацию. Этот риск усугубляется тем, что внутренняя логика работы таких моделей зачастую представляет собой "черный ящик", что затрудняет отслеживание и интерпретацию принимаемых ими решений. Вместе с тем, следует признать, что исследования в этой области продолжаются, и разрабатываются методы повышения надежности, безопасности и прозрачности языковых моделей ИИ.
Недавнее использование технологий искусственного интеллекта для автоматической генерации тысяч потенциальных военных целей представляет собой лишь начальный этап в намного более масштабном процессе внедрения ИИ в области оборонной промышленности и военных операций. Это событие можно рассматривать как своего рода "пробный шар", который указывает на грядущую волну более широкого применения ИИ-систем для решения задач планирования, разведки, наведения и других аспектов современной войны. Хотя текущее использование кажется ограниченным, оно намекает на будущие радикальные изменения в военной доктрине и практике по мере дальнейшего развития технологий искусственного интеллекта. При этом многие эксперты выражают озабоченность возможными этическими, правовыми и гуманитарными последствиями чрезмерной милитаризации ИИ и автоматизации процесса принятия решений о нанесении ударов.
"Что меня больше всего беспокоит, так это то, что эти системы могут автономно принимать решение убивать людей," - сказал профессор Хинтон.
Он предложил создание чего-то подобного Женевским конвенциям - международным договорам, устанавливающим правовые стандарты гуманитарного обращения в условиях войны - для регулирования военного использования ИИ.
"Но я не думаю, что это произойдет до тех пор, пока не случатся очень неприятные вещи", - добавил он. На вопрос о том, находится ли Запад в гонке наподобие Манхэттенского проекта (исследования ядерного оружия во время Второй мировой войны) с Россий и Китаем, по военному использованию ИИ, профессор Хинтон ответил: "Президент России несколько лет назад сказал, что тот, кто контролирует ИИ, контролирует мир . Так что, вероятно, они работают очень усердно".
"К счастью, Запад, вероятно, опережает их в исследованиях. Мы, вероятно, все еще немного впереди Китая. Но Китай вкладывает больше ресурсов. И в военном плане, я думаю, будет гонка".
Профессор Хинтон считает, что лучшим решением было бы запрещение военного использования ИИ.
Одно найти легче, чем другое. Спойлер: это не темная материя