«Локальный ИИ» теперь без гарантий приватности.

Google изменила описание локального ИИ в настройках Chrome и сразу получила вопросы о приватности. Из текста пропала фраза о том, что данные не отправляются на серверы Google. Правка насторожила пользователей: браузер уже умеет загружать локальную модель Gemini Nano, а теперь убрал из интерфейса самое понятное обещание о защите данных. Компания утверждает, что техническая схема не менялась, а модель по-прежнему обрабатывает данные на устройстве.
Изменение заметили пользователи Reddit. В разделе System раньше отображалось пояснение: для функций вроде защиты от мошенничества Chrome может использовать ИИ-модели, которые работают прямо на устройстве без отправки данных на серверы Google. После обновления из текста исчезла часть про серверы. Остальное описание сохранилось: Chrome может использовать локальные модели для отдельных функций, а при отключении настройки часть возможностей перестанет работать.
Правка привлекла внимание защитника приватности Александра Ханффа. Он спросил Google, почему компания убрала фразу про серверы, была ли прежняя формулировка неточной, менялась ли архитектура или юристы решили убрать обещание, которое Google не готова защищать как официальное заявление.
Google ответила, что новая формулировка не означает перехода локального ИИ на облачную обработку. Представитель компании заявил: данные, которые передаются модели, обрабатываются только на устройстве. По версии Google, компания не меняла техническую схему, а убрала фразу, которую можно было понять слишком широко.
Ситуация совпала с развёртыванием Prompt API в Chrome. Этот интерфейс даёт сайтам программный доступ к ИИ-модели, которая находится внутри браузера. Веб-страница может обратиться к локальной Gemini Nano, передать запрос и получить ответ. На фоне обсуждения Prompt API пользователи снова обратили внимание, что Chrome загружает на компьютеры модель Google Nano размером около 4 ГБ.
Gemini Nano появилась в Chrome не сейчас. Локальную модель начали тестировать ещё в Chrome 126 в рамках предварительной программы, а Google с 2024 года продвигает её как лёгкую ИИ-модель для работы на устройстве. Браузер использует Nano для функций безопасности, включая обнаружение мошеннических страниц, а также для интерфейсов разработчиков. Пользователей раздражает другое: загрузка модели и несколько гигабайт на диске долгое время не воспринимались как полностью добровольная настройка.
Ранее в 2026 году Google добавила в Chrome возможность отключить и удалить Gemini Nano прямо из настроек. После отключения модель больше не должна загружаться и обновляться. Компания также утверждает, что Chrome автоматически удалит Nano, если устройству не хватает ресурсов. Но сама логика вызывает споры: браузер занимает локальное хранилище и вычислительные ресурсы под ИИ-функции, которые нужны не всем.
Главный нюанс связан с тем, кто получает доступ к данным при работе сайтов с локальной моделью. Когда Chrome сам использует Gemini Nano для защиты от мошенничества, обработка проходит внутри устройства. Когда сайт обращается к локальной модели через Prompt API, сайт видит входные данные и ответы модели. Сама модель всё ещё работает локально, но результат взаимодействия получает веб-сервис, а дальше действует его политика конфиденциальности.
Из-за этой границы прежняя фраза про отсутствие отправки данных на серверы Google могла давать слишком широкое обещание. Например, пользователь открывает сайт Google, а сайт вызывает локальную Nano в Chrome для своей функции. Модель работает на компьютере, но сайт получает запросы или ответы через API. Данные не уходят в облачную модель Google, однако взаимодействие с сайтом Google всё равно может включать передачу информации сервису. Чтобы такая схема не конфликтовала с текстом в настройках, компания убрала категоричную фразу.
Поэтому новая надпись не доказывает, что Chrome начал отправлять локальные ИИ-запросы в облако. Но правка показывает другую проблему: пользователю трудно понять, где заканчивается локальная обработка и где начинается работа сайта с полученным результатом. Для обычного человека локальный ИИ звучит как функция, которая ничего не отправляет наружу. На практике многое зависит от того, кто вызывает модель и что делает с ответом.
Prompt API делает эту границу особенно важной. Разработчики получают способ использовать модель прямо в браузере, без собственного сервера с ИИ. Для приватности это может быть плюсом, если сайт не забирает лишние данные. Но веб-страница всё равно взаимодействует с локальной моделью и получает результат. В такой схеме Google отвечает за Chrome и Nano, а конкретный сервис - за дальнейшую обработку запросов и ответов.
История с изменённой надписью больше похожа не на тайный отказ от локального ИИ, а на плохо объяснённое пересечение нескольких решений. Chrome загружает крупную модель на устройство, Google меняет текст в настройках, параллельно появляется API для сайтов, а пользователи видят исчезнувшее обещание про серверы. Компания могла заранее объяснить правку, но получила подозрения в подготовке отката приватности.
У Google есть и репутационный риск. Браузер с огромной аудиторией сам загружает ИИ-модель весом около 4 ГБ, использует ресурсы компьютера и даёт сайтам новый способ обращаться к локальному ИИ. Даже при локальной обработке пользователям нужно понятное управление: где видно, установлена ли модель, какие сайты к ней обращались, какие данные получили и как полностью отключить функцию.
Официальная позиция Google сводится к одному: Gemini Nano в Chrome обрабатывает данные локально, а изменение текста не связано со сменой архитектуры. Спор возник из-за формулировки, которая раньше звучала слишком однозначно для всех сценариев работы локальной модели через сайты и API.