Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

OLMo leads on the secrets of training language models (w Dirk Groeneveld, Kyle Lo, & Luca Soldaini)

Автор: Interconnects AI

Загружено: 2025-01-22

Просмотров: 1531

Описание:

We're here to share the story of building our Open Language Models (OLMos) and what we improved to build OLMo 2 that is competitive with the smaller Llama 3.1 models. This is all about building an effective, small language modeling team that can share all it learns with the academic community.

Some questions were pulled from Twitter, but please comment or get in touch if you want us to cover anything in the future episode(s)!

Main topics:
1. Pretraining efficiency and our quest for stability after a not-so-secret failed 70B run early in 2024,
2. What the role of OLMo is in the broader AI landscape and how that is, or is not, changing,
3. Many little decisions that going into building language models and their teams (with a focus on NOT post-training, given I already talk about that a ton).

Transcript, links, and more information: https://www.interconnects.ai/p/olmo-2...

Play with the models we build here: playground.allenai.org/

00:00:00 Introduction
00:02:45 Early history of the OLMo project
00:15:27 The journey to stability
00:25:00 The evolving role of OLMo and pretraining research
00:29:00 Pretraining Q&A (µP, scaling laws, MoE, etc.)
00:40:40 How to think about pretraining data work
00:54:30 Role of pre-training vs mid training vs post-training
01:02:19 Release strategy and wrapping up

Dirk Groeneveld — https://x.com/mechanicaldirk // https://bsky.app/profile/mechanicaldi...
Kyle Lo — https://x.com/kylelostat // https://bsky.app/profile/kylelo.bsky....
Luca Soldaini —   / soldni   // https://bsky.app/profile/soldaini.net
General OLMo contact — [email protected]

Get Interconnects (https://www.interconnects.ai/)...
... on YouTube:    / @interconnects  
... on Twitter: https://x.com/interconnectsai
... on Linkedin:   / interconnects-ai  
... on Spotify: https://open.spotify.com/show/2UE6s7w...
… on Apple Podcasts: https://podcasts.apple.com/us/podcast...

OLMo leads on the secrets of training language models (w Dirk Groeneveld, Kyle Lo, & Luca Soldaini)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Finbarr Timbers on the Future of Reinforcement Learning

Finbarr Timbers on the Future of Reinforcement Learning

Everything You Wanted to Know About LLM Post-Training, with Nathan Lambert of Allen Institute for AI

Everything You Wanted to Know About LLM Post-Training, with Nathan Lambert of Allen Institute for AI

AI2's OLMo (Open Language Model): Overview and Fine-Tuning

AI2's OLMo (Open Language Model): Overview and Fine-Tuning

Self-play for Self-driving and where Scaling Reinforcement Learning is Heading with Eugene Vinitsky

Self-play for Self-driving and where Scaling Reinforcement Learning is Heading with Eugene Vinitsky

Программируем с Google Antigravity + Gemini 3 Pro. СМОЖЕТ КАЖДЫЙ!

Программируем с Google Antigravity + Gemini 3 Pro. СМОЖЕТ КАЖДЫЙ!

Илья Суцкевер (учёный  и программист) о  развитии и разработке моделей ИИ и другом

Илья Суцкевер (учёный и программист) о развитии и разработке моделей ИИ и другом

How language model post-training is done today

How language model post-training is done today

Ross Taylor, Ex-Llama reasoning lead, on Chinese open models, scaling RL, & the next 6 months in AI

Ross Taylor, Ex-Llama reasoning lead, on Chinese open models, scaling RL, & the next 6 months in AI

They Built an AGI Lab in 8 Months

They Built an AGI Lab in 8 Months

ВЕНЕДИКТОВ: Путин стал меньше пить. «Эхо Москвы», Абрамович, война с ФБК / МОЖЕМ ОБЪЯСНИТЬ

ВЕНЕДИКТОВ: Путин стал меньше пить. «Эхо Москвы», Абрамович, война с ФБК / МОЖЕМ ОБЪЯСНИТЬ

Илья Суцкевер: Мы переходим от эпохи масштабирования к эпохе исследований

Илья Суцкевер: Мы переходим от эпохи масштабирования к эпохе исследований

Hannaneh Hajishirzi - OLMo: Accelerating the Science of Language Modeling (COLM)

Hannaneh Hajishirzi - OLMo: Accelerating the Science of Language Modeling (COLM)

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

Claude Code: полный гайд по AI-кодингу (хаки, техники и секреты)

Claude Code: полный гайд по AI-кодингу (хаки, техники и секреты)

An Unexpected Reinforcement Learning Renaissance

An Unexpected Reinforcement Learning Renaissance

Deep Dive into LLMs like ChatGPT

Deep Dive into LLMs like ChatGPT

Бросаю вызов гравитации — Кевин Хоу, Google DeepMind

Бросаю вызов гравитации — Кевин Хоу, Google DeepMind

Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472

Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472

The art of training a good (reasoning) language model

The art of training a good (reasoning) language model

Вы думали, что допинг — это плохо? Подождите, пока не услышите об электромагнитных велосипедах.

Вы думали, что допинг — это плохо? Подождите, пока не услышите об электромагнитных велосипедах.

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]