Необъяснимый, непредсказуемый, неконтролируемый: ученые бьют тревогу об отсутствии контроля над искусственным интеллектом

Необъяснимый, непредсказуемый, неконтролируемый: ученые бьют тревогу об отсутствии контроля над искусственным интеллектом

Эксперты призывают к осторожности в разработке ИИ из-за рисков для существования человечества.

image

В свете недавних исследований, эксперт по безопасности искусственного интеллекта (ИИ), доктор Роман В. Ямпольский, поднимает тревожный вопрос о контролируемости ИИ, указывая на отсутствие доказательств того, что ИИ можно безопасно управлять. В преддверии выпуска своей новой книги " ИИ: необъяснимый, непредсказуемый, неконтролируемый ", Ямпольский обращает внимание на потенциальные риски, которые ИИ представляет для существования человечества, и призывает к развитию ИИ с акцентом на безопасность и минимизацию рисков.

Ямпольский подчеркивает, что проблема контроля над ИИ может стать одной из самых значимых проблем для человечества, однако она до сих пор остается плохо понятой и исследованной. С его точки зрения, развитие ИИ суперинтеллекта является практически неизбежным событием, что требует значительных усилий в области безопасности ИИ.

Основным препятствием на пути создания "безопасного" ИИ является его способность к обучению и принятию решений в новых ситуациях, что делает невозможным предсказание всех потенциальных проблем безопасности. К тому же, ИИ не всегда может объяснить принятое решение таким образом, чтобы человек мог его понять, оставляя нас с "черным ящиком" и увеличивая риск будущих инцидентов.

С увеличением автономности ИИ наш контроль над ним уменьшается, что, по мнению Ямпольского, ведет к снижению безопасности. Он утверждает, что человечество стоит перед выбором: стать подопечными, но не контролирующими, или отказаться от "помощника-хранителя", но остаться свободными и с контролем.

Ямпольский также затрагивает проблему выравнивания ценностей ИИ с человеческими, подчеркивая сложность задачи и потенциальные риски, связанные с принятием решений ИИ, которые могут быть основаны на предвзятости в пользу человека.

Для минимизации рисков, связанных с ИИ, Ямпольский предлагает разработку модифицируемых систем с возможностью "отмены" действий, ограничение их возможностей, обеспечение прозрачности и понятности на человеческом языке. Он призывает к более глубокому изучению вопросов безопасности ИИ и увеличению финансирования исследований в этой области, подчеркивая, что хотя мы не сможем достичь 100% безопасности ИИ, наши усилия могут сделать его значительно безопаснее.

Экспертные мнения, подобные высказываниям Ямпольский, акцентируют внимание на критической важности развития ИИ в ответственной и осознанной манере, призывая к международному сотрудничеству и стратегическому подходу к минимизации потенциальных рисков.

Ваша приватность умирает красиво, но мы можем спасти её.

Присоединяйтесь к нам!