Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

DeepOnet: Изучение нелинейных операторов на основе универсальной теоремы об аппроксимации операто...

Автор: MITCBMM

Загружено: 2020-09-16

Просмотров: 19423

Описание:

Джордж Карниадакис, Университет Брауна

Аннотация: Широко известно, что нейронные сети (НС) являются универсальными аппроксиматорами непрерывных функций. Однако менее известный, но важный результат заключается в том, что НС с одним скрытым слоем может точно аппроксимировать любой нелинейный непрерывный оператор. Эта универсальная теорема об аппроксимации операторов свидетельствует о потенциале НС в обучении любого непрерывного оператора или сложной системы на основе разрозненных данных. Для реализации этой теоремы мы разрабатываем новую НС с малой ошибкой обобщения – глубокую операторную сеть (DeepONet), состоящую из НС для кодирования дискретного входного функционального пространства (ветвящаяся сеть) и другой НС для кодирования области определения выходных функций (магистральная сеть). Мы демонстрируем, что DeepONet может обучаться различным явным операторам, например, интегралам и дробным лапласианам, а также неявным операторам, представляющим детерминированные и стохастические дифференциальные уравнения. Мы, в частности, изучаем различные формулировки входного функционального пространства и их влияние на ошибку обобщения.

DeepOnet: Изучение нелинейных операторов на основе универсальной теоремы об аппроксимации операто...

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Representations vs Algorithms: Symbols and Geometry in Robotics

Representations vs Algorithms: Symbols and Geometry in Robotics

DDPS | Deep neural operators with reliable extrapolation for multiphysics & multiscale problems

DDPS | Deep neural operators with reliable extrapolation for multiphysics & multiscale problems

Conveying Tasks to Computers: How Machine Learning Can Help

Conveying Tasks to Computers: How Machine Learning Can Help

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Путин и подсвинки, Кто идет в ПАСЕ, Roblox готов сотрудничать. Белковский, Климарев, Гончаренко

Путин и подсвинки, Кто идет в ПАСЕ, Roblox готов сотрудничать. Белковский, Климарев, Гончаренко

George Karniadakis - From PINNs to DeepOnets

George Karniadakis - From PINNs to DeepOnets

Towards Understanding the Implicit Regularization Effect of SGD

Towards Understanding the Implicit Regularization Effect of SGD

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Connections between physics and deep learning

Connections between physics and deep learning

A Theory of Appropriateness with Applications to Generative Artificial Intelligence

A Theory of Appropriateness with Applications to Generative Artificial Intelligence

NeurIPS 2020 Tutorial: Deep Implicit Layers

NeurIPS 2020 Tutorial: Deep Implicit Layers

Learning operators using deep neural networks for multiphysics, multiscale, & multifidelity problems

Learning operators using deep neural networks for multiphysics, multiscale, & multifidelity problems

ICLR 2021 Keynote -

ICLR 2021 Keynote - "Geometric Deep Learning: The Erlangen Programme of ML" - M Bronstein

Prof. Yue Yu | Learning Neural Operators for Biological Tissue Modeling

Prof. Yue Yu | Learning Neural Operators for Biological Tissue Modeling

Anima Anandkumar - Neural operator: A new paradigm for learning PDEs

Anima Anandkumar - Neural operator: A new paradigm for learning PDEs

Continuous-Time Reinforcement Learning || PI-DeepONet || Seminar on: April 16, 2021.

Continuous-Time Reinforcement Learning || PI-DeepONet || Seminar on: April 16, 2021.

Data-driven model discovery:  Targeted use of deep neural networks for physics and engineering

Data-driven model discovery: Targeted use of deep neural networks for physics and engineering

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

"Machine Learning for Partial Differential Equations" by Michael Brenner

The Integrated Information Theory of Consciousness

The Integrated Information Theory of Consciousness

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]