Не только умный, но и опасный: темная сторона ИИ от Microsoft

Не только умный, но и опасный: темная сторона ИИ от Microsoft

Познакомьтесь с ИИ, который меняет представления о возможностях технологий.

image

Microsoft недавно представила новую версию своего программного обеспечения с добавлением искусственного интеллекта (ИИ), способного выполнять разнообразные задачи. Например, Copilot может подводить итоги устных разговоров на онлайн-встречах в Teams, представлять аргументы "за" и "против" определенной точки зрения на основе устных обсуждений и отвечать на часть ваших электронных писем. Он даже способен писать компьютерный код.

Эта быстро развивающаяся технология приближает нас к будущему, где ИИ облегчает нашу жизнь, избавляя от скучных и повторяющихся задач. Однако, несмотря на впечатляющие возможности, мы должны быть осторожны при использовании таких больших языковых моделей (LLM), включая ChatGPT. Они требуют определенных навыков для эффективного и безопасного использования.

Почему чрезмерная зависимость от ИИ может быть проблемой

Несмотря на кажущуюся интеллектуальность, мы не можем слепо доверять LLM в вопросах точности и надежности. Важно тщательно проверять их выводы, убедившись, что наши первоначальные запросы отражены в предоставленных ответах.

Это становится особенно критичным в ситуациях, когда мы используем LLM для заполнения пробелов в собственных знаниях. Здесь наша нехватка знаний может привести к ситуации, когда мы просто не можем определить, правильный ли вывод.

Использование ИИ для участия в собраниях и составления их протоколов представляет собой очевидные риски в плане надежности. Записи собраний, основанные на транскриптах, все равно генерируются так же, как и другой текст от LLM. Они все еще основаны на языковых шаблонах и вероятностях того, что было сказано, поэтому требуют проверки перед тем, как на них можно будет полагаться.

Также существует проблема верификации, если мы используем ИИ для генерации компьютерного кода. Тестирование кода с тестовыми данными - единственный надежный метод для подтверждения его функциональности. Но это не гарантирует, что его поведение соответствует реальным ожиданиям.

Валидация и верификация

LLM, такие как ChatGPT и Copilot, являются мощными инструментами, от которых мы все можем извлечь пользу. Но мы должны быть осторожны, чтобы не доверяться их результатам слепо.

Мы находимся на начальном этапе великой революции, основанной на этой технологии. У ИИ есть бесконечные возможности, но его нужно формировать, проверять и верифицировать. И пока что только человек способен на это.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться