3 способа взаимодействия с Ollama | Ollama с LangChain
Автор: Rishab in Cloud
Загружено: 2024-08-31
Просмотров: 5721
В этом видео я показываю три способа взаимодействия с моделями Ollama, запущенными локально. Как запустить модель LLM локально с помощью Ollama и как использовать её с LangChain.
Временные метки:
0:00 вступление
0:35 что такое Ollama?
1:50 через командную строку
2:52 через API (Postman)
4:30 с использованием LangChain
11:15 заключительная часть
Ресурсы:
Репозиторий GitHub — https://github.com/rishabkumar7/langc...
Ollama для Windows — • Ollama on Windows | Run LLMs locally 🔥
Краткий курс по LangChain — • LangChain Crash Course for Beginners
Руководство DevOps — https://thedevops.guide
Поддержать канал:
Buymeacoffee — https://www.buymeacoffee.com/rishabin...
Связаться со мной:
https://rishabkumar.com
GitHub — https://github.com/rishabkumar7
Twitter — / rishabincloud
LinkedIn — / rishabkumar7
Инстаграм - / rishabincloud
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: