Как запустить DeepSeek R1 на Raspberry Pi 5: Пошаговая инструкция

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Новейшая китайская нейросеть DeepSeek стала горячей темой на всемирной сцене. Как мощная открытая большая языковая модель (LLM), предназначенная для различных ИИ-приложений, от обработки естественного языка до генерации контента, она существует в моделях с разными размерами, что делает ее адаптируемой ко многим вычислительным средам.

В то время, как DeepSeek-R1 обычно работает на высокопроизводительном оборудовании, она также может быть запущена на Raspberry Pi 5 с надлежащей оптимизацией. Это руководство проведет вас через настройку совместимого окружения и установку необходимых инструментов до запуска DeepSeek-R1 на Raspberry Pi 5 с использованием платформы Ollama. Смотрите ли вы в сторону легкой модели с быстрыми ответами или на продвинутую версия с улучшенной точностью, эта статья поможет вам начать.

Четыре шага для запуска DeepSeek R1 на Raspberry Pi 5

Шаг 1: Настройка виртуального окружения

С целью избежания возможных конфликтов с исходными настройками системы, лучше создать виртульное окружение для развертывания модели. В дальнейшем это гарантирует, что любые изменения, сделанные для DeepSeek, не повлияют на другие приложения.

Создание директории проекта и виртуального окружения

Откройте окно терминала и выполните следующие команды

mkdir /home/pi/my_project  cd /home/pi/my_project/  python -m venv /home/pi/my_project/

Активация виртуального окружения

После создания виртуального окружения активируйте его

source /home/pi/my_project/bin/activate

Деактивация

Для деактивации виртуального окружения используйте

deactivate

Обязательно выполните все шаги настройки модели в этом виртуальном окружении.

Шаг 2: Установка платформы Ollama

DeepSeek-R1 может быть запущена с помощью фреймворка Ollama, который поддерживает файлы GGUF-форматной модели. Если вы выберите модель формата safetensors, вам нужно конвертировать ее в GGUF используя llama.cpp.

Проверка совместимости системы

Перед продолжением убедитесь, что система вашей Raspberry Pi 64-разрядная, выполнив команду

uname -m

Установка Ollama

Прежде всего, обновите ОС вашей Raspberry Pi

sudo apt update  sudo apt upgrade -y

Затем, установите curl (требуется для скачивания Ollama)

sudo apt install curl

Теперь скачайте и установите платформу Ollama

curl -fsSL https://ollama.com/install.sh | sh

Проверка установки

Убедитесь в том, что Ollama установлена успешно

ollama –version

Теперь, когда Ollama готова, переходите к скачиванию модели DeepSeek-R1

Шаг 3: Запуск DeepSeek-R1 на Ollama

Существует два пути получения модели DeepSeek-R1:

  1. Скачивание и запуск напрямую из Ollama
  2. Скачивание модели из HuggingFace с последующим импортом её в Ollama

Ollama требуется независимо от метода.

Метод 1: Скачивание и запуск напрямую из Ollama

Ollama предоставляет предварительно сконфигурированные модели, тем самым упрощая начальный путь.

Найдите DeepSeek-R1 на веб-сайте Ollama и подберите модель подходящего размера.

Для запуска модели 1.5B:

ollama run deepseek-r1:1.5b

Задайте ИИ-модели вопрос наподобие: Explain whate quantum entanglement is, in simple terms (Объясни простыми терминами, что такое квантовая запутанность). Она сразу же ответит, также отобразив свой мыслительный процесс.

Метод 2: Скачивание модели из HuggingFace

Загрузка из HuggingFace позволяет вам выбрать конкретный размер модели. Польза возможности выбора в том, что Raspbetty Pi 5, даже с 16ГБ оперативной памяти, не способна эффективно справиться с крупными моделями.

Выбор модели из HuggingFace

  1. Посетите HuggingFace и найдите DeepSeek-R1.
  2. Выберите меньшую дистиллированную версию, подходящую для Raspberry Pi 5
  3. В этом руководстве мы будем использовать модель DeepSeek-R1-Distill-Llama-8B-GGUF, которая имеет 8 миллиардов параметров и оптимизирована на производительность.
  4. Скачайте файл модели Q8_0 (~8.54ГБ), така как она сбалансирована между качеством и эффективностью.

Передача файлов модели в Raspberry Pi

После скачивания трех фалов, переместите их в вашу Raspberry Pi при помощи FileZilla или другого приложения для перемещения файлов.

Шаг 4: Импорт GGUF-модели в Ollama

После того, как файлы модели окажутся в Raspberry Pi, нам нужно импортировать их в Ollama

Создание Modelfile

Сначала создайте файл с именем Modelfile в папке модели и предоставьте полные права доступа:

sudo touch /home/pi/my_project/DeepSeek-R1-Distill-Llama-8B-Q8_0/Modelfile  sudo chmod 777 /home/pi/my_project/DeepSeek-R1-Distill-Llama-8B-Q8_0/Modelfile

Добавление конфигурации модели

Откройте Modelfile и добавьте в него строку

FROM /home/pi/my_project/DeepSeek-R1-Distill-Llama-8B-Q8_0/DeepSeek-R1-Distill-Llama-8B-Q8_0.gguf

Теперь создайте модель в Ollama:

ollama create DeepSeek-R1 -f Modelfile

Проверьте доступность созданной модели

ollama list

Обратите внимание на полное название созданной модели. Любые действия с этой моделью (запуск, остановка, удаление...) возможны с указанием ее полного имени.

И наконец запустите модель:

ollama run deepseek-r1:latest

Задавайте DeepSeek-R1 вопросы и наблюдайте ее ответы.

Сравнение параметров модели

Мы протестировали две версии DeepSeek-R1:

  1. DeepSeek-R1-1.5B (загруженный напрямую из Ollama)
  2. DeepSeek-R1-Distill-Llama-85B (скачанный из HuggingFace)

Отличия производительности

МодельРазмерКачество ответаСкоростьИспользование памяти
1.5B (Ollama)МалыйПриличноеБыстраяНизкое
8B (HuggingFace)БольшойЛучшееМедленнаяВысокое

Если у вас в приоритете быстрый ответ, используйте DeepSeek-R1-1.5B. Если вам нужен высококачественный ответ, используйте DeepSeek-R1-8B, но помните про ограничения памяти.

Заключение

Следуя этой инструкции, вы сможете успешно запустить DeepSeek-R1 на Raspberry Pi 5 с использованием платформы Ollama. Если вас интересует легкая настройка, лучше воспользоваться прямой загрузкой ИИ-модели из Ollama. Однако, HuggingFace предоставляет большую гибкость в выборе ИИ-модели конкретного размера.

Экспериментируйте c вашей моделью и смотрите, на что она способна!


Источник: compacttool.ru

Комментарии: