Эксперты призвали защитить человечество от угрозы вымирания из-за искусственного интеллекта

Эксперты призвали защитить человечество от угрозы вымирания из-за искусственного интеллекта

Эксперты дают советы, но не все их принимают всерьез.

image

Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе предупредили , что развитие технологий ИИ грозит исчезновением человечества, и что необходимо принять меры для предотвращения такого сценария развития событий.

“Снижение риска вымирания, которое может произойти из-за ИИ, должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война”, - говорится в заявлении, опубликованном на сайте центра.

Документ подписали эксперты в области ИИ, а также специалисты в сфере информационных технологий, экономики, математики, философии. Среди них - гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон.

На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:

  • ИИ может быть использован для создания автономного оружия или химических вооружений
  • ИИ может генерировать дезинформацию, которая может дестабилизировать общество и подорвать коллективное принятие решений
  • Власть над ИИ может сосредоточиться в руках немногих, что позволит “режимам навязывать узкие ценности через всепроникающий контроль и жесткую цензуру”
  • Ослабление человеческого потенциала, когда люди станут зависимы от ИИ “по аналогии со сценарием из фильма " ВАЛЛ·И "”

Центр также предлагает несколько способов снижения рисков от ИИ, таких как:

  • Создание общих стандартов безопасности и этики для разработки и использования ИИ
  • Разработка механизмов контроля и ответственности за действия ИИ
  • Поддержка международного сотрудничества и диалога по вопросам ИИ
  • Образование и просвещение общественности о возможностях и опасностях ИИ

Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.

Однако не все специалисты разделяют страхи перед ИИ. Некоторые считают, что опасения переоценены и отвлекают от более актуальных проблем, таких как предвзятость или дискриминация в системах ИИ. Другие уверены, что текущий уровень развития ИИ не позволяет ему представлять серьезную угрозу для человечества.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться