Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Building long context RAG with RAPTOR from scratch

Автор: LangChain

Загружено: 2024-03-05

Просмотров: 41076

Описание:

The rise of long context LLMs and embeddings will change RAG pipeline design. Instead of splitting docs and indexing doc chunks, it will become feasible to index full documents. RAG approaches will need to flexibly answer lower-level questions from single documents or higher-level questions that require information across many documents.

RAPTOR (Sarthi et al) is one approach to tackle this by building a tree of document summaries: docs are clustered and clusters are summarized to capture higher-level information across similar docs.
This is repeated recursively, resulting in a tree of summaries from individual docs as leafs to intermediate summaries of related docs to high-level summaries of the full doc collection.

In this video, we build RAPTOR from scratch and test it on 33 web pages (each ranging 2k - 12k tokens) of LangChain docs using the recently released Claude3 model from Anthropic to build the summarization tree. The pages and tree of summaries are indexed together for RAG with Claude3, enabling QA on lower-lever questions or higher-level concepts (captured in summaries that span related pages).

This idea can scale to large collections of documents or to documents of arbitrary size (up to embd / LLM context window).

Code:
https://github.com/langchain-ai/langc...

Paper:
https://arxiv.org/abs/2401.18059

Building long context RAG with RAPTOR from scratch

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

How to Set the Chunk Size in Document Splitter | RAG | LangChain

How to Set the Chunk Size in Document Splitter | RAG | LangChain

Advanced RAG with Self-Correction | LangGraph | No Hallucination | Agents | LangChain | GROQ | AI

Advanced RAG with Self-Correction | LangGraph | No Hallucination | Agents | LangChain | GROQ | AI

Все стратегии RAG объясняются за 13 минут (без лишних слов)

Все стратегии RAG объясняются за 13 минут (без лишних слов)

RAG for long context LLMs

RAG for long context LLMs

Я в опасности

Я в опасности

Langchain - делаем AI chat бота поверх ваших документов // Курс «Machine Learning. Professional»

Langchain - делаем AI chat бота поверх ваших документов // Курс «Machine Learning. Professional»

Почему RAG терпит неудачу — как CLaRa устраняет свой главный недостаток

Почему RAG терпит неудачу — как CLaRa устраняет свой главный недостаток

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

Auto-Prompt Builder (with Hosted LangServe)

Auto-Prompt Builder (with Hosted LangServe)

Building Google's Dramatron with LangGraph JS & Anthropic's Claude 3

Building Google's Dramatron with LangGraph JS & Anthropic's Claude 3

Supercharge Your RAG with Contextualized Late Interactions

Supercharge Your RAG with Contextualized Late Interactions

GraphRAG: графы знаний, полученные с помощью LLM, для RAG

GraphRAG: графы знаний, полученные с помощью LLM, для RAG

Объяснение DSPy!

Объяснение DSPy!

ИНТЕРНЕТ 2026: Смерть VPN, Белые списки и режим Интранета. Системный анализ конца сети

ИНТЕРНЕТ 2026: Смерть VPN, Белые списки и режим Интранета. Системный анализ конца сети

Graph RAG: Улучшение RAG с помощью графов знаний

Graph RAG: Улучшение RAG с помощью графов знаний

Longformer: The Long-Document Transformer

Longformer: The Long-Document Transformer

Превратите ЛЮБОЙ файл в знания LLM за СЕКУНДЫ

Превратите ЛЮБОЙ файл в знания LLM за СЕКУНДЫ

Deploying code agents without all the agonizing pain

Deploying code agents without all the agonizing pain

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

Feed Your OWN Documents to a Local Large Language Model!

Feed Your OWN Documents to a Local Large Language Model!

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com