Как запустить DeepSeek локально на компьютере: инструкция для Windows, macOS и Linux

3718
Как запустить DeepSeek локально на компьютере: инструкция для Windows, macOS и Linux

Как запустить DeepSeek локально на своём компьютере

Локальный DeepSeek нужен тем, кто хочет работать с нейросетью без постоянного обращения к облачному сервису. Модель запускается на компьютере, отвечает в локальном чате, помогает с текстом, кодом, логами, заметками и черновиками. После скачивания файлов интернет для обычного диалога не требуется, но свежие новости, цены, законы и новые версии библиотек модель сама не проверит.

Главная ловушка скрывается в названии DeepSeek. Полная DeepSeek-R1 содержит 671 млрд параметров и подходит скорее для серверов, чем для домашнего ноутбука. Для ПК берут уменьшенные distill-версии: 1.5B, 7B, 8B, 14B, 32B или 70B. Официальный репозиторий DeepSeek-R1 перечисляет варианты на базе Qwen и Llama. Для первого запуска лучше выбрать 7B или 8B, а не начинать с модели, которая попросит больше памяти, чем есть в обычном компьютере.

Для запуска проще всего использовать два инструмента. Ollama подойдёт тем, кто нормально относится к терминалу и хочет запускать модель одной командой. LM Studio удобнее для пользователей, которым нужен графический интерфейс, поиск моделей, кнопка загрузки и обычное поле чата. Llama.cpp тоже подходит для локальных LLM, но новичку придётся вручную разбираться с параметрами, файлами и сборками.

Какую модель DeepSeek выбрать под своё железо

Размер модели напрямую влияет на скорость ответа и расход памяти. Чем больше параметров, тем выше шанс получить сильный ответ на сложную задачу, но тем тяжелее компьютеру держать модель в памяти. Слабый ноутбук с 8 ГБ ОЗУ потянет только небольшие варианты, а ПК с 32 ГБ уже позволит пробовать 14B и иногда 32B в 4-битном формате.

Инфографика о выборе модели DeepSeek для локального запуска: слабый ноутбук с 8 ГБ ОЗУ подходит для 1.5B или 7B Q4, обычный ПК с 16 ГБ ОЗУ для 7B или 8B Q4, мощный ПК для 14B или 32B Q4, рабочая станция для 32B, 70B и крупных моделей

В названиях файлов часто встречаются Q4, Q5 и Q8. Так обозначают квантование, то есть сжатие весов модели. Q4 сильнее экономит память и подходит для обычных компьютеров. Q8 обычно даёт лучшее качество, но требует больше ОЗУ или видеопамяти. Для старта разумнее брать Q4_K_M или похожий сбалансированный вариант: качество остаётся нормальным, а требования к железу не превращают запуск в отдельный вид спорта.

Оперативная память важна даже при наличии видеокарты. Часть данных может храниться в ОЗУ, а длинный контекст и большой ответ быстро увеличивают нагрузку. Если система начинает активно использовать файл подкачки, DeepSeek всё ещё может отвечать, но скорость заметно падает.

Железо Что запускать Что ожидать
8 ГБ ОЗУ, без видеокарты 1.5B или 7B Q4 Запуск возможен, длинные ответы идут медленно
16 ГБ ОЗУ 7B или 8B Q4 Хороший старт для чата, текста и простого кода
32 ГБ ОЗУ 14B Q4, иногда 32B Q4 Нормальный вариант для технических задач
64 ГБ ОЗУ и выше 32B или 70B Уровень рабочей станции, а не обычного домашнего ПК

Видеокарта ускоряет генерацию, но DeepSeek можно запустить и на процессоре. Для коротких запросов разница терпима, для длинного кода и больших текстов GPU заметно экономит время. Владельцам NVIDIA стоит обновить драйверы перед установкой LM Studio или Ollama, а владельцам Mac с Apple Silicon лучше начинать с моделей 7B или 8B.

Видеопамять Подходящие модели Комментарий
6 ГБ VRAM 7B Q4 Минимальный комфортный вариант для ускорения через GPU
8-12 ГБ VRAM 8B или 14B Q4 Хороший уровень для локального чата и кода
16-24 ГБ VRAM 14B или 32B Q4 Подходит для тяжёлых технических задач
48 ГБ VRAM и выше 32B, 70B и крупнее Сценарий для рабочих станций и серверов

Запуск DeepSeek через Ollama на Windows, macOS и Linux

Ollama даёт самый быстрый путь к локальному DeepSeek. Пользователь устанавливает программу, открывает терминал и запускает модель одной командой. На Windows подойдёт PowerShell, на macOS и Linux обычный Terminal. Официальная библиотека Ollama содержит DeepSeek-R1 с разными тегами, включая 1.5B, 7B, 8B, 14B, 32B, 70B и 671B.

Инфографика о двух способах локального запуска DeepSeek: Ollama подходит для терминала, одной команды, локального API и разработчиков, а LM Studio предлагает графический интерфейс, поиск моделей, чат и простой запуск для новичков

На Windows скачайте Ollama с официального сайта, установите программу и откройте PowerShell. Проверка установки выглядит так:

ollama --version

Если PowerShell показывает номер версии, можно запускать модель. Для первого теста на обычном компьютере с 16 ГБ ОЗУ подойдёт 8B:

ollama run deepseek-r1:8b

Команда скачает модель и сразу откроет чат в терминале. Повторный запуск пройдёт быстрее, потому что файлы уже лежат на диске. Если компьютер слабый, замените 8B на 7B или 1.5B:

ollama run deepseek-r1:7b
 ollama run deepseek-r1:1.5b

На macOS и Linux порядок почти не отличается. Установите Ollama, откройте Terminal, проверьте установку через ollama --version и запустите подходящую модель. На Mac с Apple Silicon лучше начинать с 7B или 8B. На старых Intel-ноутбуках и слабых Linux-машинах разумнее попробовать 1.5B или 7B, чтобы сразу не упереться в память.

Для просмотра скачанных моделей используйте:

ollama list

Для удаления лишней модели с диска выполните:

ollama rm deepseek-r1:8b

Если команда ollama не распознаётся на Windows, перезапустите PowerShell или всю систему. Если ошибка осталась, переустановите Ollama и проверьте системный путь. Если модель скачивается слишком долго, причина обычно в размере файла или нестабильном соединении, а не в DeepSeek.

Запуск DeepSeek через LM Studio без командной строки

LM Studio удобнее для тех, кому нужен обычный интерфейс: поиск модели, кнопка скачивания и поле чата. Программа работает на Windows, macOS и Linux, умеет запускать GGUF-модели и поддерживает локальный сервер. Для первого запуска ищите актуальный DeepSeek R1 на 7B или 8B в формате GGUF, лучше с квантованием Q4_K_M.

Такой способ особенно хорош для новичков. Не нужно запоминать команды, вручную искать папки с моделями и разбираться с параметрами запуска. Достаточно выбрать файл, дождаться загрузки и открыть чат. В блоге LM Studio отдельно описан локальный запуск DeepSeek-R1-0528-Qwen3-8B, но для вечнозелёвой инструкции важнее общий принцип: берите свежий 7B или 8B в GGUF Q4.

  1. Скачайте LM Studio с официального сайта и установите программу.
  2. Откройте раздел поиска моделей.
  3. Введите DeepSeek R1.
  4. Выберите 7B или 8B в формате GGUF, лучше Q4_K_M для первого запуска.
  5. Скачайте файл модели.
  6. Перейдите во вкладку чата.
  7. Выберите скачанную модель и загрузите модель в память.
  8. Задайте короткий тестовый вопрос, например: Объясни, как работает DNS, простыми словами.

Если LM Studio предлагает несколько похожих файлов, смотрите на размер и тип квантования. Для 16 ГБ ОЗУ не стоит начинать с 32B. Лучше получить быстрый 8B, чем ждать крупную модель по одному предложению в минуту. Для удаления файла откройте локальную библиотеку LM Studio и удалите ненужную модель через интерфейс.

LM Studio также умеет запускать локальный сервер. Такой режим пригодится, когда DeepSeek нужно подключить к редактору кода, заметкам или собственному скрипту. Для простого чата сервер не нужен, поэтому новичку лучше сначала проверить обычный режим, а уже потом переходить к интеграциям.

Что DeepSeek умеет локально и где начинаются ограничения

Локальный DeepSeek хорошо подходит для черновиков, объяснения кода, разбора ошибок, суммаризации заметок, генерации идей и простых сценариев автоматизации. Модель можно попросить переписать текст, найти слабое место в аргументации, объяснить лог сервера или подготовить SQL-запрос. Для закрытых рабочих материалов локальный запуск часто выглядит спокойнее облачного чата, потому что запрос не уходит во внешний API выбранного сервиса.

Но локальный запуск не добавляет модели доступ к интернету. DeepSeek отвечает на основе весов и текста, который пользователь вставил в запрос. Если вопрос зависит от свежих данных, модель может уверенно ошибиться. Актуальные CVE, цены, судебные решения, версии библиотек и новости нужно проверять отдельно.

Маленькие модели хуже держат длинный контекст. Если нужно разобрать большой документ, отправляйте фрагменты частями по несколько тысяч знаков и просите промежуточные выводы. Такой подход даёт более чистый результат, чем попытка загрузить весь материал за один заход.

Для кода и технических задач температуру лучше снизить до 0.3-0.5. Для идей, черновиков и редакторской работы подойдёт диапазон 0.6-0.8. Если модель начинает фантазировать, уменьшите температуру, сократите запрос и попросите отделять факты от предположений.

Локальный запуск снижает зависимость от облачных сервисов, но не превращает компьютер в защищённый сейф. Не загружайте персональные данные, коммерческую тайну и чужие документы в случайные сборки неизвестного происхождения. Для рабочих материалов проверяйте источник модели, лицензию, правила компании и требования закона о персональных данных.

Частые ошибки и быстрые решения

Большинство проблем при запуске DeepSeek связано не с самой моделью, а с памятью, местом на диске или слишком крупным вариантом. Если компьютер резко замедлился, вентиляторы шумят, а ответ почти не движется, модель не помещается в комфортный режим. Самый быстрый способ исправить ситуацию: закрыть лишние программы и взять меньший тег.

  • Ollama не запускается из PowerShell. Перезапустите терминал, затем Windows. Если команда всё равно не работает, переустановите Ollama.
  • Не хватает памяти. Замените 14B на 8B, 8B на 7B или 1.5B. Для старта выбирайте Q4.
  • Ответ идёт слишком медленно. Закройте браузер, редакторы, игры и мессенджеры. Уменьшите модель и длину запроса.
  • DeepSeek отвечает на английском. Напишите прямо: Отвечай только на русском языке.
  • LM Studio не использует видеокарту. Проверьте настройки GPU в приложении и обновите драйверы видеокарты.
  • На диске закончилось место. Посмотрите список моделей через ollama list и удалите лишние через ollama rm.
  • Модель отвечает слишком общо. Добавьте роль, цель, формат ответа и ограничения. Например: Ты помощник для анализа логов. Найди ошибку, объясни причину и предложи команды проверки.

Ещё одна частая ошибка связана с ожиданиями. Локальный DeepSeek на 7B или 8B не обязан отвечать как крупная облачная модель. Маленькая LLM отлично помогает с рутиной, но может ошибаться в сложной архитектуре, редких библиотеках и длинных цепочках рассуждений. Для важных выводов проверяйте команды, ссылки, параметры и факты вручную.

FAQ: короткие ответы перед установкой

Можно ли запустить DeepSeek без видеокарты?

Да, DeepSeek можно запустить на процессоре. Скорость будет ниже, особенно на моделях 14B и крупнее. Для обычного ПК без GPU лучше начинать с 7B или 8B в Q4.

Сколько оперативной памяти нужно для DeepSeek?

Для первого опыта хватит 8 ГБ ОЗУ, если выбрать 1.5B или лёгкий 7B. Для комфортной работы лучше иметь 16 ГБ и запускать 7B или 8B. Для 14B желательно 32 ГБ.

Работает ли DeepSeek локально без интернета?

После скачивания модели обычный чат работает без интернета. Сеть нужна для первой загрузки файлов, обновлений и проверки свежих данных через внешние источники.

Какую модель выбрать для Windows с 16 ГБ ОЗУ?

Лучший старт: DeepSeek-R1 7B или 8B в Q4. Такой вариант даёт нормальный баланс между качеством ответа и скоростью.

DeepSeek локально подходит для русского языка?

Да, модель понимает русский язык и может отвечать по-русски. Если ответ уходит на английский, добавьте в запрос явное требование: Отвечай на русском языке.

Что лучше выбрать: Ollama или LM Studio?

Ollama удобнее для терминала, скриптов и локального API. LM Studio проще для новичков, потому что даёт графический интерфейс, поиск моделей и чат без командной строки.

Можно ли использовать DeepSeek как локальный аналог ChatGPT?

Да, но с оговорками. DeepSeek локально закрывает чат, тексты, код и разбор документов, но без отдельного подключения к поиску не знает свежих событий и не проверяет интернет.

Самый простой маршрут выглядит так: установить Ollama и выполнить ollama run deepseek-r1:8b. Самый дружелюбный маршрут: поставить LM Studio, найти DeepSeek R1 7B или 8B в GGUF Q4_K_M, скачать файл и открыть чат. Для слабого компьютера берите 1.5B или 7B, для 16 ГБ ОЗУ выбирайте 8B, для 32 ГБ можно пробовать 14B.

Начинать лучше с небольшой модели. Такой подход быстрее покажет реальную пользу локального DeepSeek и не упрётся сразу в нехватку памяти. После первой проверки уже можно переходить к 14B, 32B и более тяжёлым вариантам, если железо справляется без мучительного ожидания каждого ответа.

DeepSeek локально как запустить DeepSeek на компьютере DeepSeek Windows DeepSeek macOS DeepSeek Linux Ollama DeepSeek LM Studio DeepSeek локальная нейросеть DeepSeek без интернета
Alt text
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.
02
Июня
12:00 МСК
▸ Вебинар · PT NGFW
Каждая пятая компания режет ИБ-бюджет
PT NGFW: защита от атак
на практике
Узнайте, как блокировать реальные угрозы на живом стенде — вебинар 02 июня в 12:00
Регистрация →
Реклама. Рекламодатель ООО «Инфратех», ОГРН 1195081048073, 18+