Способы оплаты Abuse

Полное руководство по установке DeepSeek локально с Ollama LLM на Ubuntu 24.04

03.02.2025, 19:00

Запуск DeepSeek, на собственном компьютере или сервере — отличный способ использовать протестировать последние разработки в сфере ИИ. В этом руководстве мы подробно рассмотрим процесс установки DeepSeek, используя Ollama, а также настройку веб-интерфейса для удобного взаимодействия с моделью.

Что такое DeepSeek и Ollama?

Прежде чем приступить к установке, давайте разберемся с основными компонентами:
→ DeepSeek — языковая модель, созданная для работы с текстовой информацией. Она может отвечать на вопросы, генерировать тексты, анализировать данные и выполнять другие сложные задачи.
→ Ollama — платформа для запуска LLM-моделей вроде DeepSeek. С ее помощью можно легко загружать, запускать и настраивать работу моделей.

Требования перед установкой

Прежде чем приступить к установке, убедитесь, что ваш компьютер или сервер обладает обладает подобными характеристиками:
✅ ОС: Ubuntu 24.04 (64-битная версия) 
✅ Интернет-соединение: стабильный доступ в сеть для загрузки необходимых файлов 
✅ ОЗУ: минимум 8 ГБ (рекомендуется 16 ГБ или больше) 
✅ Процессор: современный CPU с поддержкой многопоточности (желательно с AVX2) 
✅ Накопитель: минимум 20 ГБ свободного места (лучше 50 ГБ+ для комфортной работы) 
✅ Базовые навыки работы с терминалом.

Если ваш компьютер соответствует требованиям, можно приступать к установке!

Шаг 1: Обновите ОС и установите Python и Git

Перед установкой убедитесь, что ваша система обновлена. Для этого выполните:

sudo apt update && sudo apt upgrade -y

Теперь установим Python (версии 3.8 или выше) и Git:

sudo apt install python3 python3-pip python3-venv git -y

Проверим их версии:

python3 --version
git --version

Если всё установилось корректно, можно переходить к следующему шагу.

Шаг 2: Установка Ollama

Ollama позволяет легко загружать и управлять языковыми моделями, включая DeepSeek. Установим Ollama с помощью команды:

curl -fsSL https://ollama.com/install.sh | sh

После завершения установки убедимся, что Ollama установлен, запустив:

ollama --version

Далее включим автозапуск Ollama:

sudo systemctl start ollama
sudo systemctl enable ollama

Теперь Ollama установлен и готов к использованию.

Шаг 3: Установка и запуск модели DeepSeek

Теперь загрузим модель DeepSeek. Для этого используем команду:

ollama run deepseek-r1:7b

⚠ Примечание: загрузка модели может занять несколько минут, так как она весит несколько гигабайт.
После завершения загрузки проверим, установилась ли модель:

ollama list

Если в списке появилась deepseek, значит всё прошло успешно!

Шаг 4: Настройка Web UI для удобного взаимодействия

Хотя Ollama позволяет работать с DeepSeek через командную строку, многим пользователям удобнее использовать графический интерфейс. Для этого установим Open WebUI.

Установка виртуального окружения
Сначала создадим виртуальное окружение:

sudo apt install python3-venv -y
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate

Установка Open WebUI
Далее установим Open WebUI с помощью pip:

pip install open-webui

После установки запустим сервер WebUI:

open-webui serve

Теперь откроем браузер и перейдем по адресу:

http://localhost:8080

Должен открыться интерфейс Ollama Web UI, где можно выбрать DeepSeek и начать взаимодействие с моделью.