Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

A Unified Lottery Ticket Hypothesis for Graph Neural Networks | Tianlong Chen

Автор: Valence Labs

Загружено: 2021-11-03

Просмотров: 1442

Описание:

Join the Learning on Graphs and Geometry Reading Group: https://hannes-stark.com/logag-readin...

Paper “A Unified Lottery Ticket Hypothesis for Graph Neural Networks”: https://arxiv.org/pdf/2102.06790.pdf

Abstract: With graphs rapidly growing in size and deeper graph neural networks (GNNs) emerging, the training and inference of GNNs become increasingly expensive. Existing network weight pruning algorithms cannot address the main space and computational bottleneck in GNNs, caused by the size and connectivity of the graph. To this end, this paper first presents a unified GNN sparsification (UGS) framework that simultaneously prunes the graph adjacency matrix and the model weights, for effectively accelerating GNN inference on large-scale graphs. Leveraging this new tool, we further generalize the recently popular lottery ticket hypothesis to GNNs for the first time, by defining a graph lottery ticket (GLT) as a pair of core sub-dataset and sparse sub-network, which can be jointly identified from the original GNN and the full dense graph by iteratively applying UGS. Like its counterpart in convolutional neural networks, GLT can be trained in isolation to match the performance of training with the full model and graph, and can be drawn from both randomly initialized and self-supervised pre-trained GNNs. Our proposal has been experimentally verified across various GNN architectures and diverse tasks, on both small-scale graph datasets (Cora, Citeseer and PubMed), and large-scale datasets from the challenging Open Graph Benchmark (OGB). Specifically, for node classification, our found GLTs achieve the same accuracies with 20%~98% MACs saving on small graphs and 25%~85% MACs saving on large ones. For link prediction, GLTs lead to 48%~97% and 70% MACs saving on small and large graph datasets, respectively, without compromising predictive performance.

Authors: Tianlong Chen, Yongduo Sui, Xuxi Chen, Aston Zhang, Zhangyang Wang

Links:

Twitter Hannes:   / hannesstaerk  
Twitter Dominique:   / dom_beaini  
Twitter Valence Discovery:   / valence_ai  

Reading Group Slack: https://join.slack.com/t/logag/shared...

A Unified Lottery Ticket Hypothesis for Graph Neural Networks | Tianlong Chen

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

The Lottery Ticket Hypothesis Explained!

The Lottery Ticket Hypothesis Explained!

Sparse Neural Networks: From Practice to Theory

Sparse Neural Networks: From Practice to Theory

What is the Lottery Ticket Hypothesis, and why is it important?

What is the Lottery Ticket Hypothesis, and why is it important?

Мозг и язык: схемы vs функции в современной нейронауке. Татьяна Черниговская

Мозг и язык: схемы vs функции в современной нейронауке. Татьяна Черниговская

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

Learning stochastic dynamics from snapshots through regularized unbalanced optimal transport

Learning stochastic dynamics from snapshots through regularized unbalanced optimal transport

The Man Behind Google's AI Machine | Demis Hassabis Interview

The Man Behind Google's AI Machine | Demis Hassabis Interview

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Protein Hunter: exploiting structure hallucination within diffusion for protein design | Yehlin Cho

Protein Hunter: exploiting structure hallucination within diffusion for protein design | Yehlin Cho

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Понимание GD&T

Понимание GD&T

EI Seminar - Michael Carbin - The Lottery Ticket Hypothesis

EI Seminar - Michael Carbin - The Lottery Ticket Hypothesis

How to build a consistency model: Learning flow maps via self-distillation | Nicholas Boffi

How to build a consistency model: Learning flow maps via self-distillation | Nicholas Boffi

Понимание вибрации и резонанса

Понимание вибрации и резонанса

Но почему площадь поверхности сферы в четыре раза больше ее тени?

Но почему площадь поверхности сферы в четыре раза больше ее тени?

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

When BERT Plays the Lottery, All Tickets Are Winning (Paper Explained)

When BERT Plays the Lottery, All Tickets Are Winning (Paper Explained)

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Все, что вам нужно знать о теории управления

Все, что вам нужно знать о теории управления

Я в опасности

Я в опасности

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com