Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Edoardo Ponti: Adaptive Memory and Tokenization in Foundation Models

Автор: KUIS AI

Загружено: 2025-03-12

Просмотров: 276

Описание:

The talk given by Edoardo Ponti in KUIS AI Talks on March 4, 2025

Title: Adaptive Memory and Tokenization in Foundation Models

Abstract: State-of-the-art foundation models (FMs) process information as a sequence of internal representations; however, the length of this sequence is fixed and entirely determined by tokenization. This essentially decouples representation granularity from information content, which exacerbates the deployment costs of FMs and narrows their “horizons” in long sequences. What if, instead, we could dynamically adapt tokenization and memory in FMs to save computation while maintaining or even enhancing performance?

First, I will show how we can dynamically compress the key-value cache of Transformers by deciding when to append or merge items to memory. This offers a compromise between Transformers, whose linear key-value cache growth exhausts memory space and increases latency, and State Space Models, whose finite capacity may result in forgetfulness. Secondly, I will demonstrate how FMs can be “freed” from the tokenizers they are bound to by swapping them on-the-fly with arbitrary ones. Taking a step further, we can even get rid of tokenizers entirely by learning end-to-end how to jointly segment and model language.

Crucially, this new family of FM architectures equipped with adaptive memory and tokenization does not require to be trained from scratch; instead, pre-existing open-weight FMs can be retrofitted with a negligible amount of data for this purpose.
Short Bio: Edoardo M. Ponti is a Lecturer (≈ Assistant Professor) in Natural Language Processing at the University of Edinburgh, an Affiliated Lecturer at the University of Cambridge, and a visiting professor at NVIDIA. Previously, he was a visiting postdoctoral scholar at Stanford University and a postdoctoral fellow at Mila and McGill University in Montreal. In 2021, he obtained a PhD in computational linguistics from the University of Cambridge, St John’s College. His main research foci are efficient memory and tokenization, modular deep learning, and computational typology. His research earned him a Google Research Faculty Award and 2 Best Paper Awards at EMNLP 2021 and RepL4NLP 2019. He is a board member and co-founder of SIGTYP, the ACL special interest group for computational typology, and a scholar of the European Lab for Learning and Intelligent Systems (ELLIS). He is a (terrible) violinist, football player, and an aspiring practitioner of heroic viticulture.

Edoardo Ponti: Adaptive Memory and Tokenization in Foundation Models

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Atakan Aral: The Promise of Edge AI for Remote Monitoring

Atakan Aral: The Promise of Edge AI for Remote Monitoring

Deniz Gunceler: How large-scale AI is transforming the Physical Sciences

Deniz Gunceler: How large-scale AI is transforming the Physical Sciences

Sebastian Goldt: Learning higher-order data correlations with neural networks, efficiently

Sebastian Goldt: Learning higher-order data correlations with neural networks, efficiently

Doga Dogan: Ubiquitous Metadata: Design and Fabrication of Embedded Markers for Real-World Objects

Doga Dogan: Ubiquitous Metadata: Design and Fabrication of Embedded Markers for Real-World Objects

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Объяснение «Трансформеров»: открытие, которое навсегда изменило искусственный интеллект

Объяснение «Трансформеров»: открытие, которое навсегда изменило искусственный интеллект

Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман

Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Теорема Байеса, геометрия изменения убеждений

Теорема Байеса, геометрия изменения убеждений

Почему «Трансформеры» заменяют CNN?

Почему «Трансформеры» заменяют CNN?

Предел развития НЕЙРОСЕТЕЙ

Предел развития НЕЙРОСЕТЕЙ

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НЕ МОЖЕТ ДУМАТЬ. Коняев, Семихатов, Сурдин

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НЕ МОЖЕТ ДУМАТЬ. Коняев, Семихатов, Сурдин

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

CS50 Lecture by Mark Zuckerberg - 7 December 2005

CS50 Lecture by Mark Zuckerberg - 7 December 2005

Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475

Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475

Как СОВЕТСКИЙ реактивный лайнер смог покорить ВЕСЬ МИР? | ИЛ-62

Как СОВЕТСКИЙ реактивный лайнер смог покорить ВЕСЬ МИР? | ИЛ-62

Как строили корабли для мирового господства

Как строили корабли для мирового господства

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]