Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Agent Memory: How Short-Term Memory Works

Автор: A.I Engineering BootCamp

Загружено: 2026-01-14

Просмотров: 20

Описание:

Full Course: https://www.langcasts.com/courses/sho...
Find me here:   / fikayoadepoju  

Building stateful agents requires more than just a list of messages—it requires a system that can pause, save, and resume a conversation exactly where it left off. In LangGraph, this is handled by Checkpointers.
In this video, we discuss the mechanics of Short-Term Memory (or thread-level persistence).

You'll learn how LangGraph uses checkpointers to create a "persistence layer" for your agents, allowing them to maintain context across multiple user turns without manually passing the entire history back and forth. We’ll also explore the State Snapshot, the core object returned by a checkpointer that gives you a complete "time-travel" view of your agent's state at any given super-step.

What You Will Learn

Short-Term Memory Defined: Why "thread-scoped" memory is the foundation of multi-turn conversations.
The Role of Checkpointers: How objects like MemorySaver (in-memory) or PostgresSaver (production) automatically save the graph state after every node execution.
Understanding Threads: Using the thread_id to isolate different conversations and ensure users never see each other's data.
Working with Snapshots:
How to call graph.get_state(config) to retrieve a StateSnapshot.
Deconstructing the snapshot: values (the current state), next (the next node to execute), and metadata.
Time Travel Debugging: Using checkpoint_id and get_state_history to view and even resume from historical versions of the conversation.
Production Persistence: A quick look at migrating from InMemorySaver to persistent databases like SQLite or Postgres.

By the end of this video, you’ll understand how your agents "remember" in a way that is robust, scalable, and fully observable.

🔥 Ready to give your agent a memory that lasts? Master LangGraph Checkpointers!
👍 Found this deep dive into persistence helpful? Please give it a like!
👇 Are you using in-memory savers or a persistent DB for your agents? Let's talk in the comments!
🚀 Don't miss our next video on Long-Term Memory and Cross-Thread Stores! Subscribe now!
🔗 Share this video with developers who are struggling with state management in LangChain!


#LangGraph #ShortTermMemory #Checkpointers #AIAgents #LangChain #StatePersistence #StateSnapshot #PythonAI #LLMDevelopment #AgenticAI #MachineLearning #TechTutorial #ThreadID

Agent Memory: How Short-Term Memory Works

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

How to Give Your AI Agent Long-Term Memory

How to Give Your AI Agent Long-Term Memory

Agent Memory: Long-Term Memory in LangGraph

Agent Memory: Long-Term Memory in LangGraph

A deep dive on output styles in Claude Code

A deep dive on output styles in Claude Code

LangChain vs LangGraph: A Tale of Two Frameworks

LangChain vs LangGraph: A Tale of Two Frameworks

Как происходит модернизация остаточных соединений [mHC]

Как происходит модернизация остаточных соединений [mHC]

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

Код работает в 100 раз медленнее из-за ложного разделения ресурсов.

Код работает в 100 раз медленнее из-за ложного разделения ресурсов.

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

Short-Term vs Long-Term Memory in AI Agents

Short-Term vs Long-Term Memory in AI Agents

Я случайно создал приложение на работе. Gemini Canvas + NotebookLM гайд.

Я случайно создал приложение на работе. Gemini Canvas + NotebookLM гайд.

Parallelization: Build a Social Media Posts Generator [Agentic Design Patterns Ep. 3]

Parallelization: Build a Social Media Posts Generator [Agentic Design Patterns Ep. 3]

Что такое глубинные агенты?

Что такое глубинные агенты?

Управление поведением LLM без тонкой настройки

Управление поведением LLM без тонкой настройки

Memory for agents (conceptual video)

Memory for agents (conceptual video)

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Handling Errors in LangGraph with Retry Policies

Handling Errors in LangGraph with Retry Policies

Моделирование Монте-Карло

Моделирование Монте-Карло

NotebookLM: большой разбор инструмента (12 сценариев применения)

NotebookLM: большой разбор инструмента (12 сценариев применения)

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com