【OLLAMA+Langchain】RAG框架详解,RAG和Ollama本地大模型应用方法分享。利用本地大模型搭建私人助理。不用Fine-tuning就能实时更新大语言模型的数据库。
Автор: 畅的科技工坊
Загружено: 2024-03-19
Просмотров: 26412
让大模型帮你总结Youtube视频: • 【大语言模型LLM总结Youtube内容】Gemini Pro API 实战|实用L...
Ollama本地部署大语言模型详解: • 【Ollama 使用指南】详解开源大模型管理工具|15分钟了解ollama|本地部署...
本文的示例代码:https://colab.research.google.com/dri...
随着大模型的普及,实时更新大模型数据的需求越来越多。除开Fine-tuning,RAG成为了一个低成本,高效率的大模型和数据集成的框架。今天的视频,我来分享RAG的经典架构和工作流。以及通过一个例子,说明如何利用本地部署的大模型,在RAG框架下,搭建一个文档助理。
00:00-01:01 Open 开场介绍
01:02-02:21 Brief Intro RAG 简介
02:22-04:48 RAG Architecture&Workflow RAG 架构和工作流详解
04:49-13:24 Code Sharing & Demo 代码细节分享和演示
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: