Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Transformers Discover Molecular Structure Without Graph Priors | Tobias Kreiman

Автор: Valence Labs

Загружено: 2025-10-14

Просмотров: 577

Описание:

Portal is the home of the AI for drug discovery community. Join for more details on this talk and to connect with the speakers: https://portal.valencelabs.com/starkl...

Paper: Transformers Discover Molecular Structure Without Graph Priors

https://arxiv.org/abs/2510.02259

Abstract: Graph Neural Networks (GNNs) are the dominant architecture for molecular machine learning, particularly for molecular property prediction and machine learning interatomic potentials (MLIPs). GNNs perform message passing on predefined graphs often induced by a fixed radius cutoff or k-nearest neighbor scheme. While this design aligns with the locality present in many molecular tasks, a hard-coded graph can limit expressivity due to the fixed receptive field and slows down inference with sparse graph operations. In this work, we investigate whether pure, unmodified Transformers trained directly on Cartesian coordinates–without predefined graphs or physical priors–can approximate molecular energies and forces. As a starting point for our analysis, we demonstrate how to train a Transformer to competitive energy and force mean absolute errors under a matched training compute budget, relative to a state-of-the-art equivariant GNN on the OMol25 dataset. We discover that the Transformer learns physically consistent patterns–such as attention weights that decay inversely with interatomic distance–and flexibly adapts them across different molecular environments due to the absence of hard-coded biases. The use of a standard Transformer also unlocks predictable improvements with respect to scaling training resources, consistent with empirical scaling laws observed in other domains. Our results demonstrate that many favorable properties of GNNs can emerge adaptively in Transformers, challenging the necessity of hard-coded graph inductive biases and pointing toward standardized, scalable architectures for molecular modeling.Transformers Discover Molecular Structure Without Graph Priors

Transformers Discover Molecular Structure Without Graph Priors | Tobias Kreiman

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Predicting cellular responses to perturbation across diverse contexts with State | Abhinav Adduri

Predicting cellular responses to perturbation across diverse contexts with State | Abhinav Adduri

AlphaFold - The Most Useful Thing AI Has Ever Done

AlphaFold - The Most Useful Thing AI Has Ever Done

The Closest We’ve Come to a Theory of Everything

The Closest We’ve Come to a Theory of Everything

'Godfather of AI' warns of existential risks | GZERO World with Ian Bremmer

'Godfather of AI' warns of existential risks | GZERO World with Ian Bremmer

The Most Misunderstood Concept in Physics

The Most Misunderstood Concept in Physics

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Как производятся микрочипы? 🖥️🛠️ Этапы производства процессоров

Как производятся микрочипы? 🖥️🛠️ Этапы производства процессоров

ONE YEAR of Work for TEN SECONDS of Film

ONE YEAR of Work for TEN SECONDS of Film

Почему «Трансформеры» заменяют CNN?

Почему «Трансформеры» заменяют CNN?

KONTRA #18 Rymanowski, Sroczyński, Ziemkiewicz: Dwa lata Tuska

KONTRA #18 Rymanowski, Sroczyński, Ziemkiewicz: Dwa lata Tuska

NASA tested my chain theory in space

NASA tested my chain theory in space

Terence Tao on the cosmic distance ladder

Terence Tao on the cosmic distance ladder

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Learning stochastic dynamics from snapshots through regularized unbalanced optimal transport

Learning stochastic dynamics from snapshots through regularized unbalanced optimal transport

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

The genius logic of the NATO phonetic alphabet

The genius logic of the NATO phonetic alphabet

A Once-in-a-Century Proof: The Kakeya Conjecture

A Once-in-a-Century Proof: The Kakeya Conjecture

Recurrent Neural Networks (RNNs), Clearly Explained!!!

Recurrent Neural Networks (RNNs), Clearly Explained!!!

The Strange Math That Predicts (Almost) Anything

The Strange Math That Predicts (Almost) Anything

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]