Запуск DeepSeek, на собственном компьютере или сервере — отличный способ использовать протестировать последние разработки в сфере ИИ. В этом руководстве мы подробно рассмотрим процесс установки DeepSeek, используя Ollama, а также настройку веб-интерфейса для удобного взаимодействия с моделью.
Прежде чем приступить к установке, давайте разберемся с основными компонентами:
→ DeepSeek — языковая модель, созданная для работы с текстовой информацией. Она может отвечать на вопросы, генерировать тексты, анализировать данные и выполнять другие сложные задачи.
→ Ollama — платформа для запуска LLM-моделей вроде DeepSeek. С ее помощью можно легко загружать, запускать и настраивать работу моделей.
Прежде чем приступить к установке, убедитесь, что ваш компьютер или сервер обладает обладает подобными характеристиками:
✅ ОС: Ubuntu 24.04 (64-битная версия)
✅ Интернет-соединение: стабильный доступ в сеть для загрузки необходимых файлов
✅ ОЗУ: минимум 8 ГБ (рекомендуется 16 ГБ или больше)
✅ Процессор: современный CPU с поддержкой многопоточности (желательно с AVX2)
✅ Накопитель: минимум 20 ГБ свободного места (лучше 50 ГБ+ для комфортной работы)
✅ Базовые навыки работы с терминалом.
Если ваш компьютер соответствует требованиям, можно приступать к установке!
Перед установкой убедитесь, что ваша система обновлена. Для этого выполните:
sudo apt update && sudo apt upgrade -y
Теперь установим Python (версии 3.8 или выше) и Git:
sudo apt install python3 python3-pip python3-venv git -y
Проверим их версии:
python3 --version
git --version
Если всё установилось корректно, можно переходить к следующему шагу.
Ollama позволяет легко загружать и управлять языковыми моделями, включая DeepSeek. Установим Ollama с помощью команды:
curl -fsSL https://ollama.com/install.sh | sh
После завершения установки убедимся, что Ollama установлен, запустив:
ollama --version
Далее включим автозапуск Ollama:
sudo systemctl start ollama
sudo systemctl enable ollama
Теперь Ollama установлен и готов к использованию.
Теперь загрузим модель DeepSeek. Для этого используем команду:
ollama run deepseek-r1:7b
⚠ Примечание: загрузка модели может занять несколько минут, так как она весит несколько гигабайт.
После завершения загрузки проверим, установилась ли модель:
ollama list
Если в списке появилась deepseek, значит всё прошло успешно!
Хотя Ollama позволяет работать с DeepSeek через командную строку, многим пользователям удобнее использовать графический интерфейс. Для этого установим Open WebUI.
Установка виртуального окружения
Сначала создадим виртуальное окружение:
sudo apt install python3-venv -y
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate
Установка Open WebUI
Далее установим Open WebUI с помощью pip:
pip install open-webui
После установки запустим сервер WebUI:
open-webui serve
Теперь откроем браузер и перейдем по адресу:
http://localhost:8080
Должен открыться интерфейс Ollama Web UI, где можно выбрать DeepSeek и начать взаимодействие с моделью.
Примените скидку, вставив промокод в специальное поле при оформлении заказа: