Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

KAN: Kolmogorov-Arnold Networks | Ziming Liu

Автор: Valence Labs

Загружено: 2024-05-13

Просмотров: 41204

Описание:

Portal is the home of the AI for drug discovery community. Join for more details on this talk and to connect with the speakers: https://portal.valencelabs.com/logg

Abstract: Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes ("neurons"), KANs have learnable activation functions on edges ("weights"). KANs have no linear weights at all -- every weight parameter is replaced by a univariate function parametrized as a spline. We show that this seemingly simple change makes KANs outperform MLPs in terms of accuracy and interpretability. For accuracy, much smaller KANs can achieve comparable or better accuracy than much larger MLPs in data fitting and PDE solving. Theoretically and empirically, KANs possess faster neural scaling laws than MLPs. For interpretability, KANs can be intuitively visualized and can easily interact with human users. Through two examples in mathematics and physics, KANs are shown to be useful collaborators helping scientists (re)discover mathematical and physical laws. In summary, KANs are promising alternatives for MLPs, opening opportunities for further improving today's deep learning models which rely heavily on MLPs.

Speakers: Ziming Liu

Twitter Hannes:   / hannesstaerk  
Twitter Dominique:   / dom_beaini  

~

Chapters
00:00 - Intro + Background
05:06 - From KART to KAN
07:56 - MLP vs KAN
16:05 - Accuracy: Scaling of KANs
26:35 - Interpretability: KAN for Science
38:04 - Q+A Break
57:15 - Strengths and Weaknesses
59:28 - Philosophy
1:08:45 - Anecdotes Behind the Scenes
1:11:49 - Final Thoughts
1:14:58 - Q+A

KAN: Kolmogorov-Arnold Networks | Ziming Liu

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

D-Flow: Differentiating through Flows for Controlled Generation | Heli Ben-Hamu

D-Flow: Differentiating through Flows for Controlled Generation | Heli Ben-Hamu

Д.А. Яроцкий. Теорема Колмогорова и нейронные сети

Д.А. Яроцкий. Теорема Колмогорова и нейронные сети

Predicting cellular responses to perturbation across diverse contexts with State | Abhinav Adduri

Predicting cellular responses to perturbation across diverse contexts with State | Abhinav Adduri

Сети Колмогорова-Арнольда (КАН) — что это и как они работают?

Сети Колмогорова-Арнольда (КАН) — что это и как они работают?

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Чего боится Путин? Скандал в Индии. Потери России на войне. Переговоры. Долина | Пастухов, Еловский

Чего боится Путин? Скандал в Индии. Потери России на войне. Переговоры. Долина | Пастухов, Еловский

Branched Schrödinger Bridge Matching | Sophia Tang & Pranam Chatterjee

Branched Schrödinger Bridge Matching | Sophia Tang & Pranam Chatterjee

Переговоры в Лондоне, Кадырова перенесли, Маска послали на Марс. Морозов, Мартынов, Филиппенко

Переговоры в Лондоне, Кадырова перенесли, Маска послали на Марс. Морозов, Мартынов, Филиппенко

Математики открывают странную новую бесконечность

Математики открывают странную новую бесконечность

How to build a consistency model: Learning flow maps via self-distillation | Nicholas Boffi

How to build a consistency model: Learning flow maps via self-distillation | Nicholas Boffi

Stanford CS229 I Machine Learning I Building Large Language Models (LLMs)

Stanford CS229 I Machine Learning I Building Large Language Models (LLMs)

История фантастики: Антиутопии, в которых мы уже живем / Уроки истории / МИНАЕВ

История фантастики: Антиутопии, в которых мы уже живем / Уроки истории / МИНАЕВ

Rosja szykuje się na drugą rundę || Zbigniew Parafianowicz - didaskalia#162

Rosja szykuje się na drugą rundę || Zbigniew Parafianowicz - didaskalia#162

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Transformers Discover Molecular Structure Without Graph Priors | Tobias Kreiman

Transformers Discover Molecular Structure Without Graph Priors | Tobias Kreiman

This is why Deep Learning is really weird.

This is why Deep Learning is really weird.

Learning stochastic dynamics from snapshots through regularized unbalanced optimal transport

Learning stochastic dynamics from snapshots through regularized unbalanced optimal transport

Ziming Liu | KAN: Kolmogorov-Arnold Networks

Ziming Liu | KAN: Kolmogorov-Arnold Networks

Let's build GPT: from scratch, in code, spelled out.

Let's build GPT: from scratch, in code, spelled out.

The spelled-out intro to neural networks and backpropagation: building micrograd

The spelled-out intro to neural networks and backpropagation: building micrograd

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]