Вредить нельзя убить: OpenAI смягчила контроль над использованием ИИ

Вредить нельзя убить: OpenAI смягчила контроль над использованием ИИ

Как технологии компании повлияют на политику после изменения курса ИИ?

image

Компания OpenAI внесла изменения в свою политику использования технологий, убрав упоминание о запрете на их применение в «военных и военно-политических» целях. Изначально такая формулировка была частью политики компании, но 10 января она была удалена в ходе обновления страницы с политиками использования. Об этом сообщило издание The Intercept.

В новой версии политики осталось предписание не «причинять вред себе или другим», но исчезло общее положение о запрете на «военное использование». Изменения в политике наступили на фоне растущего интереса военных агентств всего мира к использованию искусственного интеллекта. Сара Майерс Уэст, управляющий директор Института AI Now, подчеркнула значимость этого момента, отметив использование систем ИИ для нацеливания на гражданских лиц в Газе.

Теперь OpenAI не имеет явных ограничений на работу с правительственными агентствами, вроде Министерства обороны США, которое традиционно предлагает выгодные контракты подрядчикам. На данный момент у компании нет продуктов, способных непосредственно убивать или причинять физический вред, однако технологии могут быть использованы для определенных задач, таких как написание кода или обработка заказов на поставку товаров, которые могут быть использованы в военных целях.

В ответ на вопрос об изменении формулировки политики использования, представитель OpenAI заявил, что компания стремилась создать универсальные принципы, которые будут понятны и применимы, особенно учитывая глобальное использование инструментов компании. Представитель уточнил, что принцип вроде «Не причиняйте вреда другим» является всеобъемлющим, но легко усваиваемым и актуальным во многих контекстах. Однако представитель OpenAI не уточнил, включает ли запрет на использование технологий для причинения вреда все виды военного применения за пределами разработки оружия.

В OpenAI подчеркнули, что политика компании не допускает использование инструментов для причинения вреда людям, разработки оружия, наблюдения или уничтожения имущества. В то же время, существуют случаи использования ИИ в области национальной безопасности, соответствующие миссии компании. Например, OpenAI уже сотрудничает с DARPA для создания новых инструментов кибербезопасности для защиты открытого программного обеспечения, важного для критически значимой инфраструктуры и промышленности. По словам представителя OpenAI, цель обновления политики – обеспечить ясность и возможность обсуждения подобных вопросов.

Новая политика, кажется, делает акцент на законности, а не на безопасности. Существует разница между двумя политиками – первая ясно указывала на запрет разработки оружия и военных действий, а последняя подчеркивает гибкость и соответствие закону.

Таким образом, изменение формулировки политики OpenAI вызывает вопросы о её возможном влиянии на сотрудничество с военными и оборонными агентствами, а также о том, какие именно случаи использования технологии теперь допустимы в рамках новой политики.

Ньютон уронил яблоко. Мы роняем челюсти!

Гравитация научных фактов сильнее, чем вы думаете

Подпишитесь и испытайте интеллектуальное падение