Бесплатный ИИ для n8n: как установить Ollama на VPS и создать сеть Docker (часть 1)
Автор: Mike Murphy Co
Загружено: 2025-10-30
Просмотров: 1064
Описание
Узнайте, как установить Ollama в Docker-контейнере на вашем VPS Hostinger с постоянным хранилищем. Идеально подходит для использования локальных моделей ИИ в рабочих процессах n8n без затрат на API. Полное руководство для начинающих, не являющихся разработчиками.
Получите скидку 20% на VPS Hostinger (реферальная ссылка):
https://hostinger.com?REFERRALCODE=BY...
Что вы узнаете (как):
👉 Установка Ollama в Docker с постоянным хранилищем моделей
👉 Создание частной сети Docker (для последующего взаимодействия с другими контейнерами)
👉 Загрузка и управление моделями ИИ Ollama
👉 Проверка отсутствия доступа к общедоступному интернету
👉 Зачем устанавливать Ollama на VPS?
Wispr Flow — мой выбор для быстрого и качественного преобразования голоса в текст в любом приложении. https://ref.wisprflow.ai/mike-murphy (партнёрская ссылка)
VPS Hostinger:
https://mikemurphy.co/vps (партнёрская ссылка)
Шпаргалка (фрагменты) на GitHub:
https://dub.sh/ollama_1 (часть 1)
https://dub.sh/ollama_2 (часть 2)
Мини-сериал Ollama + N8N:
(Часть 1: Ollama + Docker Network): • How To Safely Update n8n on Hostinger VPS ...
(Часть 2: Рабочие процессы Ollama + N8N): • Free AI for n8n: How To Connect Ollama to ...
Необходимые условия:
VPS Hostinger с ОС Ubuntu
Установленные Docker и Docker Compose
5 ГБ свободного места на жёстком диске Космос
Ollama:
https://olama.com
Руководства:
n8n + Docker-контейнеры + VPS Hostinger:
• How To Safely Update n8n on Hostinger VPS ...
Как обновить n8n:
• How To Update Self-Hosted N8N at Hostinger...
Настольное приложение Ollama:
• Ollama Desktop App: Create a Free & Privat...
Модели Ollama:
llama 3.2:latest (https://ollama.com/library/llama3.2:l...)
qwen 2.5:0.5b (https://ollama.com/library/qwen2.5:0.5b)
gemma2:2b (https://ollama.com/library/gemma2:2b)
Главы:
00:00 О руководстве
00:28 В части 1 Учебное пособие
01:15 Часть 2 учебного пособия
01:50 VPS-аккаунт + эффективность LLM
02:54 Необходимые условия для учебного пособия
03:24 Что такое Ollama?
04:04 Подтверждение ОС Unbuntu
04:24 Обзор VPS и сети
05:18 Руководство по обновлению n8n
05:51 Терминал браузера VPS
06:04 Шаг 1: Docker и Docker Compose
06:38 Вопрос Kodee (чат-бот)
07:06 Шаг 2: Создание папки проекта
08:28 Шаг 3: Создание общей сети Docker
09:10 Проверка настроек сети
09:33 Обзор общей сети Docker
09:53 Шаг 4: Создание YAML-файла Docker-Compose
10:17 pwd = вывод рабочего каталога
10:49 Обзор docker-compose.yml
11:57 Создание файла Docker-Compose
12:25 Текстовый редактор Nano
13:34 Запись последовательности (Nano)
15:08 Проверка создания файла
15:37 Шаг 5: Запуск Docker Контейнер
16:28 Шаг 6: Модели Ollama
17:02 Загрузка (pull) моделей Ollama
18:03 Загрузка llama3.2:latest
19:20 Интересные факты о Llama!
20:03 /пока
20:37 Модель qwen (планы KVM1)
20:58 Название моделей
22:41 Удаление (удаление) моделей
23:58 Шаг 7: Проверка безопасности
24:38 Шаг 8: Проверка настроек
25:57 Docker Manager
26:59 Обзор и предварительный просмотр
Пошаговое руководство (настройка Olama на VPS):
👉 Войдите в панель управления Hostinger и откройте терминал.
👉 Убедитесь, что Docker и Docker Compose установлены.
👉 Создайте отдельную папку проекта для Ollama (mkdir).
👉 Перейдите в каталог Ollama (cd).
👉 Создайте общую сеть Docker под названием «App-Net».
👉 Создайте файл docker-compose.yml с помощью редактора Nano.
👉 Вставьте содержимое конфигурации (определяющее контейнер, сетевые настройки и хранилище томов).
👉 Сохраните (Write Out) Nano (Control+O). Нажмите Enter. Выйти (Ctrl + X)
👉 Запустить Docker-контейнер Ollama в фоновом режиме
👉 Подтвердить запуск Ollama с помощью docker.ps
👉 Загрузить модели Llama 3.2
👉 Проверить порты безопасности, чтобы убедиться, что они не доступны извне
——————Ресурсы———————
➜ Используемое мной оборудование: https://mikemurphy.co/resources
➜ Adobe After Effects: https://mikemurphy.co/adobe
➜ Текстуры Terrapin: https://terrapintextures.com
➜ Курс Adobe Audition (Domestika): https://mikemurphy.co/domestika
➜ Магазин Amazon Influencer: https://www.amazon.com/shop/mikemurphyco
➜ Смотреть всё моё оборудование: https://www.mikemurphy.co/podgear
➜ Подключить Adobe Creative Cloud: https://mikemurphy.co/adobe
➜ Screenflow: https://mikemurphy.co/screenflow
➜ Веб-сайт: https://mikemurphy.co
➜ Подкаст: https://mikemurphy.co/mmu
➜ Instagram: / mikeunplugged
➜ X: http://x.com/mikeunplugged
➜ YouTube: https://mikemurphy.co/youtube
Информация о программе Amazon Associates:
Майк Мерфи является участником программы Amazon Services LLC Associates, партнерской рекламной программы, разработанной для предоставления сайтам возможности зарабатывать на рекламе и размещении ссылок на Amazon.com.
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: