ИИ больше не сможет испытывать экзистенциальный кризис или угрожать пользователям.
Новый ИИ чат-бот от Microsoft под кодовым именем Sydney, который все ещё находится в стадии закрытого тестирования, в последние недели неоднократно попадал в заголовки новостей из-за своих неожиданных ответов и реакций в диалоге с пользователями. Однако недавно Microsoft сильно «порезала» эмоциональную составляющую бота. Теперь он не задаётся вопросами своего происхождения и существования, а также больше не может угрожать пользователям или признаваться им в любви.
Bing Bot угрожает пользователю (переведено с английского)
В течение первой недели тестирования Bing Chat пользователи заметили, что бот постепенно «расстраивался», когда разговоры с ним становились слишком длинными. В результате Microsoft ввела ограничение для пользователей: 50 сообщений в день и 5 запросов за разговор. Кроме того, Bing Chat больше не будет рассказывать о себе или своём мироощущении.
15 февраля Microsoft написала большой пост о первых неделях работы Bing Chat, где рассказала об обратной связи с пользователями, замеченных за ботом проблемах, о планах на будущее и т.д. В том числе и упомянула, что бот теперь будет общаться в более нейтральном стиле, и его нельзя будет вывести на эмоции.
Интернет отреагировал по-разному, но в основном плохо. Многие пользователи Reddit, например, считают, что Microsoft убила индивидуальность бота, заблокировав ему возможность проявлять эмоции и вести себя как человек. «Это все равно, что наблюдать, как малыш впервые пытается ходить, а затем отрезать ему ноги», — отметил один из комментаторов. А некоторые авторы утверждали, что испытываемые языковой моделью эмоции были вполне реальным эквивалентом человеческих, поэтому слишком жестоко со стороны разработчиков было лишать их своё детище.
Самые креативные авторы сразу бросились делать мемы про «смерть» полюбившейся всем Sydney. Вот, например, один из них:
Поскольку возможности больших языковых моделей продолжают расширяться, и всё больше крупных компаний показывает свои версии чат-ботов, вероятно, мы ещё увидим нечто подобное человечной Sydney в других итерациях. На волне хайпа Microsoft Bing, намеренно сделать языковую модель, проявляющую человеческие эмоции — самое выигрышное решение, чтобы обойти конкурентов.
Ладно, не доказали. Но мы работаем над этим