Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

How can we understand the neural basis of thought?

Автор: Relatorium

Загружено: 2025-10-17

Просмотров: 121

Описание:

Speaker :- Nick Watters
Moderator :- Ted Theodosopoulos

Title: How can we understand the neural basis of thought?

Abstract: Neuroscience is undergoing a technological revolution, a “Moore’s Law” for neural recording that is allowing us to measure the activity of the brain at ever-increasing resolution. However, simply recording neural activity does not tell us how the brain works. To understand how the brain works, we must construct models that connect neural activity to interpretable principles of thought. This modeling becomes increasingly important as we tackle more abstract, cognitive types of thought that arise from the coordinated activity of large populations of neurons. In this talk, I’ll discuss approaches to modeling such large-scale neural activity. I’ll focus primarily on one cognitive domain: Our ability to predict the kinematics of moving objects. We use this ability regularly in daily life, from catching a ball to crossing a busy street. I’ll present neural data recorded from subjects predicting the kinematics of moving objects, introduce a modeling paradigm for interpreting this data, and discuss the implications of the neural latent variables this modeling effort reveals. I’ll conclude by sharing an optimistic outlook on the future of systems neuroscience and speculation about potential implications for artificial intelligence.

Speaker bio: Nick Watters is a postdoctoral associate at MIT studying the neural basis of cognition and motor control in the Jazayeri lab, where he was a PhD student beforehand. Prior to joining MIT, he worked at Google DeepMind as a research engineer, studying unsupervised visual structure-learning and sample-efficient reinforcement learning. Prior to joining DeepMind, he was an undergraduate at Harvard studying math, computer science, and neurobiology.

Moderator: This talk is moderated by Ted Theodosopoulos. Ted is a mathematician who, after working for years in academia and industry, transitioned to teaching at the pre-college level sixteen years ago, the last eight at Nueva, where he teaches math and economics. Ted’s research background is in the area of interacting stochastic systems, with particular applications in biology and economics.

How can we understand the neural basis of thought?

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Richard Sutton – Father of RL thinks LLMs are a dead end

Richard Sutton – Father of RL thinks LLMs are a dead end

How ChatGPT Slowly Destroys Your Brain

How ChatGPT Slowly Destroys Your Brain

Something Strange Happens When You Trust Quantum Mechanics

Something Strange Happens When You Trust Quantum Mechanics

The Quantum Chaos of Real-World Networks

The Quantum Chaos of Real-World Networks

Память, интеллект и сознание у когнитивных существ: некоторые следствия теории нейронных гиперсетей

Память, интеллект и сознание у когнитивных существ: некоторые следствия теории нейронных гиперсетей

Как ИИ научился думать

Как ИИ научился думать

Наномашины: природные технологии, которым миллиарды лет. Молекулярные моторы клеток живых организмов

Наномашины: природные технологии, которым миллиарды лет. Молекулярные моторы клеток живых организмов

The Story of Python and how it took over the world | Python: The Documentary

The Story of Python and how it took over the world | Python: The Documentary

The Strange Math That Predicts (Almost) Anything

The Strange Math That Predicts (Almost) Anything

The genius logic of the NATO phonetic alphabet

The genius logic of the NATO phonetic alphabet

Terence Tao on the cosmic distance ladder

Terence Tao on the cosmic distance ladder

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Принц Персии: разбираем код гениальной игры, вытирая слезы счастья

Принц Персии: разбираем код гениальной игры, вытирая слезы счастья

Моделирование одной клетки мозга

Моделирование одной клетки мозга

Как строили корабли для мирового господства

Как строили корабли для мирового господства

ПРОКОФЬЕВ - Гениальная сволочь

ПРОКОФЬЕВ - Гениальная сволочь

Math's Fundamental Flaw

Math's Fundamental Flaw

Большие технологии против демократии | Янис Варуфакис сражается с Тимом Нгуеном

Большие технологии против демократии | Янис Варуфакис сражается с Тимом Нгуеном

Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472

Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472

Преддиабет: 9 симптомов, по которым тело кричит «остановись».

Преддиабет: 9 симптомов, по которым тело кричит «остановись».

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]