Искусственный интеллект – это не зло, но может им быть
Искусственный интеллект (ИИ), если он находится в правильных руках, должен показать огромную выгоду для человечества. Возможности ИИ обрабатывать огромные объемы данных для быстрого выявления тенденций и реагирования на них должны помочь при решении таких важных задач, как разработка новых лекарств, усовершенствование транспортных систем и решение загадок Вселенной.
Однако, при всем своем «интеллекте», ИИ сам по себе достаточно глуп. Компьютерные системы нуждаются в получении инструкций и обучении прежде, чем они смогут решать проблемы, а вот тут как раз и наблюдается потенциал для использования ИИ во вредоносных целях.
Как ИИ может стать плохим
Как и все технологии, Искусственный интеллект со временем станет более доступным, что позволит почти каждому из нас начать строить системы на его базе. В относительно недалеком будущем преступники смогут также использовать ИИ в своих целях – с этого момента компьютерные системы начнут становиться «злом».
Исследовательский институт при Университете Нью-Йорка изучает проблему «злого» искусственного интеллекта. Они обнаружили три основных способа, с помощью которых ИИ может быть обращен против человечества.
1. Помощь в осуществлении кибер-преступлений
Кибер-атаки становятся все более изощренными и сложными, но многие из них до сих пор полагаются на приемы типа «brute force» для того, чтобы нарушить работу веб-сайтов или «угадать» пароли. Применяя ИИ для решения таких задач, хакеры смогут серьезно упростить выполнение подобных задач. ИИ поможет предложить наиболее эффективные способы атаки, позволяя кибер-преступникам оптимизировать свои ресурсы и повысить свои шансы на успешное преодоление систем защиты, установленных у своих жертв.
2. Атаки в реальном мире
В фильме «Терминатор» нам представили ужасное видение будущего, в котором преступная система искусственного интеллекта пытается уничтожить человечество, используя роботов-киллеров, путешествующих во времени. Возможно, мы никогда не сможем увидеть подобное в реальной жизни, однако некоторые эксперты предполагают, что ИИ может быть использован для атак в реальном мире.
Например, с помощью беспилотных летательных аппаратов, оснащенных программным обеспечением для распознавания лиц, вполне возможно осуществлять воздушные атаки на определенных людей. Как только ИИ обнаружит требуемого человека, дрон может открыть по нему огонь – в этом случае совершенно не потребуется человек, будь он пилотом или оператором управления.
3. Более эффективные онлайн-манипуляции
Мир все еще пытается смириться со скандалами подобно злоупотреблению персональными данными в Cambridge Analytica. Но по мере «взросления» ИИ, эти виды манипуляций станут еще более изощренными. Интеллектуальные машины будут способны использовать наши социальные данные против нас, чтобы манипулировать эмоциями, мнениями и поведением.
Тоталитарные правительства, страны, насаждающие вокруг себя «демократию», или кибер-преступники будут использовать эти возможности, например, для выявления политических оппонентов или, допустим, для шантажа определенных лиц с целью получения финансовой прибыли.
Время для серьезных обсуждений ИИ
Искусственный интеллект должен стать добром для человечества, но существует серьезная опасность того, что ИИ также будет использован и в преступных целях. К сожалению, на этот вопрос нет простого ответа. В конце концов, можно создать кодекс этики для тех организаций, которые используют ИИ, с целью введения повышенного уровня их ответственности, но это вряд ли будет действенной мерой в отношении преступников.
Возможно, нам необходимо построить платформы с ИИ для контроля других систем с искусственным интеллектом, потому что человеческий фактор также может стать серьезной проблемой.
Один хакер может причинить столько же вреда, сколько 10 000 солдат! Подпишись на наш Телеграм канал, чтобы узнать первым, как выжить в цифровом кошмаре!