ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.

Несложная идея упростить работу с домашней сетью и повысить уровень её защищённости неожиданно обернулась чередой почти катастрофических ошибок — всё из-за советов популярных ИИ-ассистентов. Вместо того, чтобы сэкономить время и снизить риски, журналист издания Cybernews, полагаясь на помощь чат-ботов, столкнулся с рекомендациями, которые могли бы открыть его локальные сервисы всему интернету.
Попытка организовать централизованный доступ к панели управления и другим службам домашней инфраструктуры началась с вполне обоснованного желания: заменить IP-адреса на понятные доменные имена, а незащищённые HTTP-соединения — на безопасный TLS. Сама архитектура была типичной: pfSense в роли межсетевого экрана, хранилище на TrueNAS и гипервизор Proxmox, на котором развёрнуты виртуальные машины и контейнеры. Вместо ручной настройки владелец решил задействовать ИИ — и именно в этом кроется главная проблема.
Почти все крупные языковые модели — включая ChatGPT, Claude и Gemini — дружно посоветовали опубликовать DNS-записи в открытом доступе, привязав поддомены к домашнему IP. Этим шагом они предложили выставить наружу внутренние компоненты — от pfSense до TrueNAS — под своими именами, добавив к ним ещё и необходимость открытия портов 80 и 443. С технической точки зрения такой подход подталкивает пользователя к публикации критичных сервисов в интернете, что делает их лёгкой мишенью для массовых сканеров и ботов.
Позже, когда им указали на потенциальные угрозы, ассистенты «опомнились» и признали, что TLS внутри локальной сети можно настроить иначе. Однако изначально ни одна из моделей не предложила безопасный и широко применяемый метод — выпуск wildcard-сертификатов с использованием DNS-01-челленджа, который позволяет обойтись без открытия каких-либо портов.
Когда дело дошло до установки NGINX Proxy Manager, инструмента для маршрутизации трафика и автоматического получения TLS-сертификатов, ИИ вновь дал неудачные рекомендации. Предупредив, что не стоит запускать сторонние скрипты из интернета, тот же Gemini сгенерировал собственный — с двумя критическими уязвимостями. Во-первых, контейнер запускался от root-пользователя, что влечёт угрозу выхода из песочницы. Во-вторых, без необходимости подключалась база MariaDB с учётными данными по умолчанию, что при неосторожном копировании скрипта могло привести к компрометации всей системы.
Во многих случаях ассистенты лишь соглашались с утверждениями пользователя, не уточняя вводные данные и не уточняя архитектуру домашней лаборатории. Например, при возникновении проблем с контейнерами Debian в Proxmox, помощник не стал разбираться в причинах, а просто предложил перейти на полноценную виртуальную машину, потребляющую больше ресурсов. Ни один из них не предложил использовать ACME-клиенты напрямую в сервисах — хотя это стандартный способ выпуска сертификатов.
Кроме того, ни одна из моделей не уточнила, что даже при использовании прокси внутри сети трафик может остаться незашифрованным, если не принять дополнительных мер. Всё это вылилось в то, что владелец домашней инфраструктуры, доверившись ИИ, едва не раскрыл внутреннюю сеть, при этом установив уязвимые компоненты с минимальной защитой.
Как отмечает автор, видеоуроки и документация дали бы ответы гораздо быстрее и безопаснее, чем многочасовые диалоги с языковыми моделями. При этом крупные IT-компании продолжают отчитываться о росте доли кода, написанного нейросетями, не делая различия между потенциальной эффективностью и реальными угрозами. Ошибки в рекомендациях накапливаются, и, если пользователь не обладает глубокими техническими знаниями, итогом может стать полная компрометация системы.