Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

AMP: Adversarial Motion Priors for Stylized Physics-Based Character Control (Paper Explained)

Автор: Yannic Kilcher

Загружено: 2021-06-19

Просмотров: 11012

Описание:

#reiforcementlearning #gan #imitationlearning

Learning from demonstrations is a fascinating topic, but what if the demonstrations are not exactly the behaviors we want to learn? Can we adhere to a dataset of demonstrations and still achieve a specified goal? This paper uses GANs to combine goal-achieving reinforcement learning with imitation learning and learns to perform well at a given task while doing so in the style of a given presented dataset. The resulting behaviors include many realistic-looking transitions between the demonstrated movements.

OUTLINE:
0:00 - Intro & Overview
1:25 - Problem Statement
6:10 - Reward Signals
8:15 - Motion Prior from GAN
14:10 - Algorithm Overview
20:15 - Reward Engineering & Experimental Results
30:40 - Conclusion & Comments

Paper: https://arxiv.org/abs/2104.02180
Main Video:    • SIGGRAPH 2021: Adversarial Motion Priors (...  
Supplementary Video:    • SIGGRAPH 2021: Adversarial Motion Priors (...  

Abstract:
Synthesizing graceful and life-like behaviors for physically simulated characters has been a fundamental challenge in computer animation. Data-driven methods that leverage motion tracking are a prominent class of techniques for producing high fidelity motions for a wide range of behaviors. However, the effectiveness of these tracking-based methods often hinges on carefully designed objective functions, and when applied to large and diverse motion datasets, these methods require significant additional machinery to select the appropriate motion for the character to track in a given scenario. In this work, we propose to obviate the need to manually design imitation objectives and mechanisms for motion selection by utilizing a fully automated approach based on adversarial imitation learning. High-level task objectives that the character should perform can be specified by relatively simple reward functions, while the low-level style of the character's behaviors can be specified by a dataset of unstructured motion clips, without any explicit clip selection or sequencing. These motion clips are used to train an adversarial motion prior, which specifies style-rewards for training the character through reinforcement learning (RL). The adversarial RL procedure automatically selects which motion to perform, dynamically interpolating and generalizing from the dataset. Our system produces high-quality motions that are comparable to those achieved by state-of-the-art tracking-based techniques, while also being able to easily accommodate large datasets of unstructured motion clips. Composition of disparate skills emerges automatically from the motion prior, without requiring a high-level motion planner or other task-specific annotations of the motion clips. We demonstrate the effectiveness of our framework on a diverse cast of complex simulated characters and a challenging suite of motor control tasks.

Authors: Xue Bin Peng, Ze Ma, Pieter Abbeel, Sergey Levine, Angjoo Kanazawa

Links:
TabNine Code Completion (Referral): http://bit.ly/tabnine-yannick
YouTube:    / yannickilcher  
Twitter:   / ykilcher  
Discord:   / discord  
BitChute: https://www.bitchute.com/channel/yann...
Minds: https://www.minds.com/ykilcher
Parler: https://parler.com/profile/YannicKilcher
LinkedIn:   / ykilcher  
BiliBili: https://space.bilibili.com/1824646584

If you want to support me, the best thing to do is to share out the content :)

If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this):
SubscribeStar: https://www.subscribestar.com/yannick...
Patreon:   / yannickilcher  
Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq
Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2
Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m
Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

AMP: Adversarial Motion Priors for Stylized Physics-Based Character Control (Paper Explained)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Decision Transformer: Reinforcement Learning via Sequence Modeling (Research Paper Explained)

Decision Transformer: Reinforcement Learning via Sequence Modeling (Research Paper Explained)

SIGGRAPH 2022: Adversarial Skill Embeddings

SIGGRAPH 2022: Adversarial Skill Embeddings

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

Мозаика Пенроуза, бесконечная и неповторимая [Veritasium]

Мозаика Пенроуза, бесконечная и неповторимая [Veritasium]

Пожалуй, главное заблуждение об электричестве [Veritasium]

Пожалуй, главное заблуждение об электричестве [Veritasium]

Путь инженера ИИ/МО — суровая правда

Путь инженера ИИ/МО — суровая правда

Как работала машина

Как работала машина "Энигма"?

EfficientZero: Mastering Atari Games with Limited Data (Machine Learning Research Paper Explained)

EfficientZero: Mastering Atari Games with Limited Data (Machine Learning Research Paper Explained)

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

SIGGRAPH 2021: Adversarial Motion Priors (main video)

SIGGRAPH 2021: Adversarial Motion Priors (main video)

PonderNet: Learning to Ponder (Machine Learning Research Paper Explained)

PonderNet: Learning to Ponder (Machine Learning Research Paper Explained)

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Этот ИИ-каскадер становится всё лучше и лучше! 🏃

Этот ИИ-каскадер становится всё лучше и лучше! 🏃

SIGGRAPH 2021: Adversarial Motion Priors (supplementary video)

SIGGRAPH 2021: Adversarial Motion Priors (supplementary video)

Fast and Slow Learning of Recurrent Independent Mechanisms (Machine Learning Paper Explained)

Fast and Slow Learning of Recurrent Independent Mechanisms (Machine Learning Paper Explained)

Meet Your Virtual AI Stuntman! 💪🤖

Meet Your Virtual AI Stuntman! 💪🤖

На скорости света (визуализация от ScienceClic)

На скорости света (визуализация от ScienceClic)

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Удалось ли Терри Тао решить уравнение стоимостью 1 000 000 долларов, которое нарушает законы физики?

Удалось ли Терри Тао решить уравнение стоимостью 1 000 000 долларов, которое нарушает законы физики?

Fast reinforcement learning with generalized policy updates (Paper Explained)

Fast reinforcement learning with generalized policy updates (Paper Explained)

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com