Как запустить DeepSeek локально на своём компьютере
Локальный DeepSeek нужен тем, кто хочет работать с нейросетью без постоянного обращения к облачному сервису. Модель запускается на компьютере, отвечает в локальном чате, помогает с текстом, кодом, логами, заметками и черновиками. После скачивания файлов интернет для обычного диалога не требуется, но свежие новости, цены, законы и новые версии библиотек модель сама не проверит.
Главная ловушка скрывается в названии DeepSeek. Полная DeepSeek-R1 содержит 671 млрд параметров и подходит скорее для серверов, чем для домашнего ноутбука. Для ПК берут уменьшенные distill-версии: 1.5B, 7B, 8B, 14B, 32B или 70B. Официальный репозиторий DeepSeek-R1 перечисляет варианты на базе Qwen и Llama. Для первого запуска лучше выбрать 7B или 8B, а не начинать с модели, которая попросит больше памяти, чем есть в обычном компьютере.
Для запуска проще всего использовать два инструмента. Ollama подойдёт тем, кто нормально относится к терминалу и хочет запускать модель одной командой. LM Studio удобнее для пользователей, которым нужен графический интерфейс, поиск моделей, кнопка загрузки и обычное поле чата. Llama.cpp тоже подходит для локальных LLM, но новичку придётся вручную разбираться с параметрами, файлами и сборками.
Какую модель DeepSeek выбрать под своё железо
Размер модели напрямую влияет на скорость ответа и расход памяти. Чем больше параметров, тем выше шанс получить сильный ответ на сложную задачу, но тем тяжелее компьютеру держать модель в памяти. Слабый ноутбук с 8 ГБ ОЗУ потянет только небольшие варианты, а ПК с 32 ГБ уже позволит пробовать 14B и иногда 32B в 4-битном формате.
В названиях файлов часто встречаются Q4, Q5 и Q8. Так обозначают квантование, то есть сжатие весов модели. Q4 сильнее экономит память и подходит для обычных компьютеров. Q8 обычно даёт лучшее качество, но требует больше ОЗУ или видеопамяти. Для старта разумнее брать Q4_K_M или похожий сбалансированный вариант: качество остаётся нормальным, а требования к железу не превращают запуск в отдельный вид спорта.
Оперативная память важна даже при наличии видеокарты. Часть данных может храниться в ОЗУ, а длинный контекст и большой ответ быстро увеличивают нагрузку. Если система начинает активно использовать файл подкачки, DeepSeek всё ещё может отвечать, но скорость заметно падает.
| Железо | Что запускать | Что ожидать |
|---|---|---|
| 8 ГБ ОЗУ, без видеокарты | 1.5B или 7B Q4 | Запуск возможен, длинные ответы идут медленно |
| 16 ГБ ОЗУ | 7B или 8B Q4 | Хороший старт для чата, текста и простого кода |
| 32 ГБ ОЗУ | 14B Q4, иногда 32B Q4 | Нормальный вариант для технических задач |
| 64 ГБ ОЗУ и выше | 32B или 70B | Уровень рабочей станции, а не обычного домашнего ПК |
Видеокарта ускоряет генерацию, но DeepSeek можно запустить и на процессоре. Для коротких запросов разница терпима, для длинного кода и больших текстов GPU заметно экономит время. Владельцам NVIDIA стоит обновить драйверы перед установкой LM Studio или Ollama, а владельцам Mac с Apple Silicon лучше начинать с моделей 7B или 8B.
| Видеопамять | Подходящие модели | Комментарий |
|---|---|---|
| 6 ГБ VRAM | 7B Q4 | Минимальный комфортный вариант для ускорения через GPU |
| 8-12 ГБ VRAM | 8B или 14B Q4 | Хороший уровень для локального чата и кода |
| 16-24 ГБ VRAM | 14B или 32B Q4 | Подходит для тяжёлых технических задач |
| 48 ГБ VRAM и выше | 32B, 70B и крупнее | Сценарий для рабочих станций и серверов |
Запуск DeepSeek через Ollama на Windows, macOS и Linux
Ollama даёт самый быстрый путь к локальному DeepSeek. Пользователь устанавливает программу, открывает терминал и запускает модель одной командой. На Windows подойдёт PowerShell, на macOS и Linux обычный Terminal. Официальная библиотека Ollama содержит DeepSeek-R1 с разными тегами, включая 1.5B, 7B, 8B, 14B, 32B, 70B и 671B.
На Windows скачайте Ollama с официального сайта, установите программу и откройте PowerShell. Проверка установки выглядит так:
ollama --version
Если PowerShell показывает номер версии, можно запускать модель. Для первого теста на обычном компьютере с 16 ГБ ОЗУ подойдёт 8B:
ollama run deepseek-r1:8b
Команда скачает модель и сразу откроет чат в терминале. Повторный запуск пройдёт быстрее, потому что файлы уже лежат на диске. Если компьютер слабый, замените 8B на 7B или 1.5B:
ollama run deepseek-r1:7b
ollama run deepseek-r1:1.5b
На macOS и Linux порядок почти не отличается. Установите Ollama, откройте Terminal, проверьте установку через ollama --version и запустите подходящую модель. На Mac с Apple Silicon лучше начинать с 7B или 8B. На старых Intel-ноутбуках и слабых Linux-машинах разумнее попробовать 1.5B или 7B, чтобы сразу не упереться в память.
Для просмотра скачанных моделей используйте:
ollama list
Для удаления лишней модели с диска выполните:
ollama rm deepseek-r1:8b
Если команда ollama не распознаётся на Windows, перезапустите PowerShell или всю систему. Если ошибка осталась, переустановите Ollama и проверьте системный путь. Если модель скачивается слишком долго, причина обычно в размере файла или нестабильном соединении, а не в DeepSeek.
Запуск DeepSeek через LM Studio без командной строки
LM Studio удобнее для тех, кому нужен обычный интерфейс: поиск модели, кнопка скачивания и поле чата. Программа работает на Windows, macOS и Linux, умеет запускать GGUF-модели и поддерживает локальный сервер. Для первого запуска ищите актуальный DeepSeek R1 на 7B или 8B в формате GGUF, лучше с квантованием Q4_K_M.
Такой способ особенно хорош для новичков. Не нужно запоминать команды, вручную искать папки с моделями и разбираться с параметрами запуска. Достаточно выбрать файл, дождаться загрузки и открыть чат. В блоге LM Studio отдельно описан локальный запуск DeepSeek-R1-0528-Qwen3-8B, но для вечнозелёвой инструкции важнее общий принцип: берите свежий 7B или 8B в GGUF Q4.
- Скачайте LM Studio с официального сайта и установите программу.
- Откройте раздел поиска моделей.
- Введите DeepSeek R1.
- Выберите 7B или 8B в формате GGUF, лучше Q4_K_M для первого запуска.
- Скачайте файл модели.
- Перейдите во вкладку чата.
- Выберите скачанную модель и загрузите модель в память.
- Задайте короткий тестовый вопрос, например:
Объясни, как работает DNS, простыми словами.
Если LM Studio предлагает несколько похожих файлов, смотрите на размер и тип квантования. Для 16 ГБ ОЗУ не стоит начинать с 32B. Лучше получить быстрый 8B, чем ждать крупную модель по одному предложению в минуту. Для удаления файла откройте локальную библиотеку LM Studio и удалите ненужную модель через интерфейс.
LM Studio также умеет запускать локальный сервер. Такой режим пригодится, когда DeepSeek нужно подключить к редактору кода, заметкам или собственному скрипту. Для простого чата сервер не нужен, поэтому новичку лучше сначала проверить обычный режим, а уже потом переходить к интеграциям.
Что DeepSeek умеет локально и где начинаются ограничения
Локальный DeepSeek хорошо подходит для черновиков, объяснения кода, разбора ошибок, суммаризации заметок, генерации идей и простых сценариев автоматизации. Модель можно попросить переписать текст, найти слабое место в аргументации, объяснить лог сервера или подготовить SQL-запрос. Для закрытых рабочих материалов локальный запуск часто выглядит спокойнее облачного чата, потому что запрос не уходит во внешний API выбранного сервиса.
Но локальный запуск не добавляет модели доступ к интернету. DeepSeek отвечает на основе весов и текста, который пользователь вставил в запрос. Если вопрос зависит от свежих данных, модель может уверенно ошибиться. Актуальные CVE, цены, судебные решения, версии библиотек и новости нужно проверять отдельно.
Маленькие модели хуже держат длинный контекст. Если нужно разобрать большой документ, отправляйте фрагменты частями по несколько тысяч знаков и просите промежуточные выводы. Такой подход даёт более чистый результат, чем попытка загрузить весь материал за один заход.
Для кода и технических задач температуру лучше снизить до 0.3-0.5. Для идей, черновиков и редакторской работы подойдёт диапазон 0.6-0.8. Если модель начинает фантазировать, уменьшите температуру, сократите запрос и попросите отделять факты от предположений.
Локальный запуск снижает зависимость от облачных сервисов, но не превращает компьютер в защищённый сейф. Не загружайте персональные данные, коммерческую тайну и чужие документы в случайные сборки неизвестного происхождения. Для рабочих материалов проверяйте источник модели, лицензию, правила компании и требования закона о персональных данных.
Частые ошибки и быстрые решения
Большинство проблем при запуске DeepSeek связано не с самой моделью, а с памятью, местом на диске или слишком крупным вариантом. Если компьютер резко замедлился, вентиляторы шумят, а ответ почти не движется, модель не помещается в комфортный режим. Самый быстрый способ исправить ситуацию: закрыть лишние программы и взять меньший тег.
- Ollama не запускается из PowerShell. Перезапустите терминал, затем Windows. Если команда всё равно не работает, переустановите Ollama.
- Не хватает памяти. Замените 14B на 8B, 8B на 7B или 1.5B. Для старта выбирайте Q4.
- Ответ идёт слишком медленно. Закройте браузер, редакторы, игры и мессенджеры. Уменьшите модель и длину запроса.
- DeepSeek отвечает на английском. Напишите прямо:
Отвечай только на русском языке. - LM Studio не использует видеокарту. Проверьте настройки GPU в приложении и обновите драйверы видеокарты.
- На диске закончилось место. Посмотрите список моделей через
ollama listи удалите лишние черезollama rm. - Модель отвечает слишком общо. Добавьте роль, цель, формат ответа и ограничения. Например:
Ты помощник для анализа логов. Найди ошибку, объясни причину и предложи команды проверки.
Ещё одна частая ошибка связана с ожиданиями. Локальный DeepSeek на 7B или 8B не обязан отвечать как крупная облачная модель. Маленькая LLM отлично помогает с рутиной, но может ошибаться в сложной архитектуре, редких библиотеках и длинных цепочках рассуждений. Для важных выводов проверяйте команды, ссылки, параметры и факты вручную.
FAQ: короткие ответы перед установкой
Можно ли запустить DeepSeek без видеокарты?
Да, DeepSeek можно запустить на процессоре. Скорость будет ниже, особенно на моделях 14B и крупнее. Для обычного ПК без GPU лучше начинать с 7B или 8B в Q4.
Сколько оперативной памяти нужно для DeepSeek?
Для первого опыта хватит 8 ГБ ОЗУ, если выбрать 1.5B или лёгкий 7B. Для комфортной работы лучше иметь 16 ГБ и запускать 7B или 8B. Для 14B желательно 32 ГБ.
Работает ли DeepSeek локально без интернета?
После скачивания модели обычный чат работает без интернета. Сеть нужна для первой загрузки файлов, обновлений и проверки свежих данных через внешние источники.
Какую модель выбрать для Windows с 16 ГБ ОЗУ?
Лучший старт: DeepSeek-R1 7B или 8B в Q4. Такой вариант даёт нормальный баланс между качеством ответа и скоростью.
DeepSeek локально подходит для русского языка?
Да, модель понимает русский язык и может отвечать по-русски. Если ответ уходит на английский, добавьте в запрос явное требование: Отвечай на русском языке.
Что лучше выбрать: Ollama или LM Studio?
Ollama удобнее для терминала, скриптов и локального API. LM Studio проще для новичков, потому что даёт графический интерфейс, поиск моделей и чат без командной строки.
Можно ли использовать DeepSeek как локальный аналог ChatGPT?
Да, но с оговорками. DeepSeek локально закрывает чат, тексты, код и разбор документов, но без отдельного подключения к поиску не знает свежих событий и не проверяет интернет.
Самый простой маршрут выглядит так: установить Ollama и выполнить ollama run deepseek-r1:8b. Самый дружелюбный маршрут: поставить LM Studio, найти DeepSeek R1 7B или 8B в GGUF Q4_K_M, скачать файл и открыть чат. Для слабого компьютера берите 1.5B или 7B, для 16 ГБ ОЗУ выбирайте 8B, для 32 ГБ можно пробовать 14B.
Начинать лучше с небольшой модели. Такой подход быстрее покажет реальную пользу локального DeepSeek и не упрётся сразу в нехватку памяти. После первой проверки уже можно переходить к 14B, 32B и более тяжёлым вариантам, если железо справляется без мучительного ожидания каждого ответа.

