# 4. Устанавливаем AI локально с Ollama

В этой статье я расскажу как легко, быстро и бесплатно установить AI локально на локальный для вас компьютер. А в следующих статьях – мы будем подключать LLM к Obsidian для локальной работы AI, с нашей базой данных и обучать LLM.

Уровень статьи: простой

Термины и ссылки которые использованы в статье:

  • AI – artificial Intelligence, искусственный интеллект.
  • LLM – large language model, большая языковая модель.
  • Dataset – данные для обучения AI.
  • GUI – graphical user interface, графический пользовательский интерфейс.
  • CLI – командная строка
  • Ollama – приложение для установки и управление локальных LLM через терминал.
  • LM Studio – приложение для установки и управление локальных LLM через GUI.
  • Huggin Face – платформа ориентированное на создание и обмен моделями AI и Dataset. Как Github или Google Play, только для AI и Open Source.

Ollama

Ollama это приложение, которое поможет установить LLM локально на ваш компьютер, работает под Windows, Linux, MAC.

Ollama автоматически обнаруживает и использует доступные NVIDIA GPU. Убедитесь, что у вас установлены правильные (это касается Linux) драйверы NVIDIA. Для AMD GPU на Linux требуется ROCm.

Репозиторий Ollama:

  • GitHub: Репозиторий Ollama на GitHub (https://github.com/ollama/ollama) – основное место для сообщения о проблемах (issues), обсуждения функций и получения помощи.
  • Документация: Официальная документация Ollama (https://github.com/ollama/ollama/tree/main/docs) содержит много полезной информации.
  • Сайт: Откуда проще всего скачать Ollama (https://ollama.com)

Установка Ollama

Установка супер-простая, скачиваем и устанавливаем приложение.

Запуск Ollama

Запуск и скачивание моделей для Ollama происходит через терминал, если для вас это уже сложно, посмотрите статью про LM Studio, там проще 🙂

Открываем терминал на любой из операционных систем (для Windows это может быть Power Shell, Командная строка или Терминал).

Выбираем модель на сайте Ollama в разделе Models

# 4. Устанавливаем AI локально с Ollama

Ой, скрин не тот

Здесь я выбрал Gemma3 с 4 миллиардами параметрами – gemma3:4b

Чтобы скачать и запустить:

ollama run gemma3:4b

И все, мы уже можем общаться с AI через консоль

У меня достаточно дерзкая модель попалась, с характером 🙂

Здесь заканчивается базовая часть статьи!

Установка только с CPU, через Docker

Если у нас нет хорошей видеокарты GPU, мы можем использовать LLM с процессором CPU, для этого правда, нам уже нужно развернуть модель в Docker.

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Если нужна установка через Docker Nvidia или AMD GPU, почитайте документацию – https://github.com/ollama/ollama/blob/main/docs/docker.md

Обновление Ollama

Ollama на macOS и Windows автоматически загружает обновления. Нажмите на значок на панели задач или в меню, а затем нажмите «Перезапустить для обновления», чтобы применить обновление. Обновления также можно установить, загрузив последнюю версию вручную.

В Linux повторно запустите установочный скрипт:

curl -fsSL https://ollama.com/install.sh | sh

Какая видеокарта рекомендуются?

Ollama хорошо работает с CUDA, это верно для всех AI систем из-за особенностей многоядерности CUDA.

Левая колонка — тем больше цифра, тем выше вычислительные возможности для AI.

Вычислительные возможностиСемействоМодели GPU
9.0NVIDIAH200 H100
8.9GeForce RTX 40xxRTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti SUPER RTX 4070 Ti RTX 4070 SUPER RTX 4070 RTX 4060 Ti RTX 4060
Профессиональная компания NVIDIAL4 L40 RTX 6000
8.6GeForce RTX 30xxRTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 Ti RTX 3070 RTX 3060 Ti RTX 3060 RTX 3050 Ti RTX 3050
Профессиональная компания NVIDIAA40 RTX A6000 RTX A5000 RTX A4000 RTX A3000 RTX A2000 A10 A16 A2
8.0NVIDIAA100 A30
7.5GeForce GTX/RTXGTX 1650 Ti TITAN RTX RTX 2080 Ti RTX 2080 RTX 2070 RTX 2060
Профессиональная компания NVIDIAT4 RTX 5000 RTX 4000 RTX 3000 T2000 T1200 T1000 T600 T500
QuadroRTX 8000 RTX 6000 RTX 5000 RTX 4000
7.0NVIDIATITAN V V100 Quadro GV100
6.1NVIDIA TITANTITAN Xp TITAN X
GeForce GTXGTX 1080 Ti GTX 1080 GTX 1070 Ti GTX 1070 GTX 1060 GTX 1050 Ti GTX 1050
QuadroP6000 P5200 P4200 P3200 P5000 P4000 P3000 P2200 P2000 P1000 P620 P600 P500 P520
ТеслаP40 P4
6.0NVIDIATesla P100 Quadro GP100
5.2GeForce GTXGTX TITAN X GTX 980 Ti GTX 980 GTX 970 GTX 960 GTX 950
QuadroM6000 24GB M6000 M5000 M5500M M4000 M2200 M2000 M620
ТеслаM60 M40
5.0GeForce GTXGTX 750 Ti GTX 750 NVS 810
QuadroK2200 K1200 K620 M1200 M520 M5000M M4000M M3000M M2000M M1000M K620M M600M M500M

Например, на моем ноутбукe с Nvidia 1650GT и 16 GB RAM достаточно хорошо (но не быстро) работают Gemma 12B. Для обучения LLM у меня ноут уже не потянет этот процесс.

Управление Ollama через CLI

Управление через командную строку или терминал (CLI) – основной способ взаимодействия. Вы вводите запросы после приглашения >>>, а модель генерирует ответы. Примеры команд:

ollama run gemma3:4b #Запустить модель.
ollama list #Показать список доступных локально моделей.
ollama pull gemma3:4b #Скачать модель, не запуская её.
ollama rm gemma3:4b #Удалить модель.
ollama cp <source_model> <target_model> #Скопировать модель.
ollama show --modelfile gemma3:4b #Показать Modelfile для модели (подробнее о Modelfile будет отдельной статьей).
ollama show --template gemma3:4b #Показать шаблон запроса для модели.

Итак, в этой статье мы научились устанавливать и управлять Ollama на нашем компьютере, в следующих статьях про Ollama, мы будем дальше развиваться наше взаимодействие с ним.

ingeniare
ingeniare
http://getmyai.io
Организатор IT-мероприятий, автоматизатор и евангелист AI. Спикер WAW, DUMP, NextWay по AI. Ментор по AI и "Как войти в IT". Консультации бизнеса по AI и системе управления проектами P3.Express.

Оставить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

двенадцать + одиннадцать =

Сайт использует cookies