Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Tomasz Piotrowski - Fixed Points of Nonnegative Neural Networks | ML in PL 2024

Автор: ML in PL

Загружено: 2025-03-01

Просмотров: 162

Описание:

We use fixed point theory to analyze nonnegative neural networks, which we define as neural networks that map nonnegative vectors to nonnegative vectors. We first show that nonnegative neural networks with nonnegative weights and biases can be recognized as monotonic and (weakly) scalable mappings within the framework of nonlinear Perron-Frobenius theory. This fact enables us to provide conditions for the existence of fixed points of nonnegative neural networks having inputs and outputs of the same dimension, and these conditions are weaker than those recently obtained using arguments in convex analysis. Furthermore, we prove that the shape of the fixed point set of nonnegative neural networks with nonnegative weights and biases is an interval, which under mild conditions degenerates to a point. These results are then used to obtain the existence of fixed points of more general nonnegative neural networks. From a practical perspective, our results contribute to the understanding of the behavior of autoencoders, and we also offer valuable mathematical machinery for future developments in deep equilibrium models.

Tomasz Piotrowski received the M.Sc. degree in Mathematics from Silesian University of Technology, Poland, in 2004, the M.Sc. degree in Information Processing & Neural Networks from King’s College London, UK, in 2005, the Ph.D. degree from Tokyo Institute of Technology, Japan, in 2008, and the D.Sc. degree from Systems Research Institute, Polish Academy of Sciences, in 2021. From 2009 to 2010 he worked in industry as a data analyst at Comarch SA. In 2011, he joined Nicolaus Copernicus University (NCU) in Toruń, Poland as an Assistant Professor. Since 2022, he is an Associate Professor at NCU. He is involved in brain research, signal processing, and mathematical foundations of deep learning.

This talk was one of the Contributed Talks at the ML in PL Conference 2024.

ML in PL Conference 2024 website: https://conference2024.mlinpl.org
ML in PL Association Website: https://mlinpl.org

Tomasz Piotrowski - Fixed Points of Nonnegative Neural Networks | ML in PL 2024

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Adam Dziedzic - Open LLMs are Necessary for Private Adaptations | ML in PL 2024

Adam Dziedzic - Open LLMs are Necessary for Private Adaptations | ML in PL 2024

Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024]

Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024]

Теорема Байеса, геометрия изменения убеждений

Теорема Байеса, геометрия изменения убеждений

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Квартет И: отмолчались и затухли. О чем говорят мужчины во время СВО | НЕ ТА ДВЕРЬ

Квартет И: отмолчались и затухли. О чем говорят мужчины во время СВО | НЕ ТА ДВЕРЬ

Как производятся микрочипы? 🖥️🛠️ Этапы производства процессоров

Как производятся микрочипы? 🖥️🛠️ Этапы производства процессоров

Lucas Beyer - Computer Vision in the Age of LLMs | ML in PL 2024

Lucas Beyer - Computer Vision in the Age of LLMs | ML in PL 2024

Tom Rainforth - Modern Bayesian Experimental Design | ML in PL 2024

Tom Rainforth - Modern Bayesian Experimental Design | ML in PL 2024

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Neural Network Architectures & Deep Learning

Neural Network Architectures & Deep Learning

Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024

Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

Recurrent Neural Networks (RNNs), Clearly Explained!!!

Recurrent Neural Networks (RNNs), Clearly Explained!!!

Autoencoders Explained Easily

Autoencoders Explained Easily

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Что происходит с нейросетью во время обучения?

Что происходит с нейросетью во время обучения?

Момент, когда мы перестали понимать ИИ [AlexNet]

Момент, когда мы перестали понимать ИИ [AlexNet]

Физически-информированные нейронные сети (PINN) [Машинное обучение с учетом физики]

Физически-информированные нейронные сети (PINN) [Машинное обучение с учетом физики]

The Neural Network, A Visual Introduction

The Neural Network, A Visual Introduction

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]