Выглядит как пауэрбанк, думает как сервер. Стартап Tiiny AI выпустил самый маленький суперкомпьютер в мире

Выглядит как пауэрбанк, думает как сервер. Стартап Tiiny AI выпустил самый маленький суперкомпьютер в мире

Устройство Pocket Lab попало в Книгу рекордов Гиннесса: оно запускает LLM на 120 млрд параметров локально.

image

Американский стартап Tiiny AI представил устройство Pocket Lab, которое Книга рекордов Гиннесса официально признала самым маленьким персональным AI-суперкомпьютером в мире. По размерам гаджет напоминает обычный пауэрбанк, но при этом способен запускать большие языковые модели с 120 миллиардами параметров — и всё это без подключения к интернету, облачным серверам или мощным видеокартам.

Устройство поступило в продажу 10 декабря. В компании позиционируют его как ответ на три главные проблемы современной облачной инфраструктуры: зависимость от дата-центров, растущие счета за электричество и риски утечки персональных данных. «Облачный ИИ принёс огромный прогресс, но вместе с ним появились уязвимости и вопросы устойчивого развития. Мы считаем, что интеллект должен принадлежать людям, а не дата-центрам», — заявил директор по выводу продуктов на рынок Самар Бходж.

Pocket Lab рассчитан на широкую аудиторию: разработчиков, исследователей, студентов и просто энтузиастов. Устройство позволяет выполнять многоступенчатые рассуждения, генерировать контент и безопасно обрабатывать конфиденциальную информацию — всё локально, без выхода в сеть. Данные хранятся на устройстве с банковским уровнем шифрования, что обеспечивает более надёжную защиту приватности по сравнению с облачными решениями.

Технически Pocket Lab построен на 12-ядерном процессоре ARM v9.2 с энергопотреблением всего 65 Вт. Для сравнения: традиционные системы на базе GPU потребляют в разы больше энергии при схожей производительности. Секрет эффективности — две ключевые технологии. Первая, TurboSparse, активирует только те нейроны, которые нужны для конкретной задачи, не снижая при этом качество работы модели. Вторая — движок Powerinfer с открытым исходным кодом, который распределяет нагрузку между центральным процессором и нейронным ускорителем.

Компания также подготовила удобную экосистему: можно легко установить популярные открытые модели — Llama, Qwen, DeepSeek, Mistral и другие. Поддерживаются и AI-агенты вроде ComfyUI и Flowise. Пользователям обещают регулярные обновления, в том числе аппаратные апгрейды по воздуху. Полноценный запуск всех функций запланирован на выставку CES в январе 2026 года.