Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

This Algorithm Could Make a GPT-4 Toaster Possible

Автор: Edan Meyer

Загружено: 2023-01-27

Просмотров: 117597

Описание:

The Forward-Forward algorithm from Geoffry Hinton is a backpropagation alternative inspired by learning in the cortex. It tackles several issues with backprop that would allow it to be run much more efficiently. Hopefully research like this continues to pave the way toward full-hardware integrated AI chips in the future.

Outline
0:00 - Intro
1:13 - ClearML
2:17 - Motivation
5:40 - Forward-Forward Explained
13:54 - MNIST Example
18:54 - Top-Down Interactions
26:00 - More Examples / Results
27:41 - Sleep & Phased Learning
29:36 - Related Ideas
30:38 - Learning Fast & Slow
32:35 - Mortal Computation

ClearML - https://bit.ly/3GtCsj5

Social Media:
YouTube -    / edanmeyer  
Twitter -   / ejmejm1  

Sources:
Paper - https://www.cs.toronto.edu/~hinton/FF...

This Algorithm Could Make a GPT-4 Toaster Possible

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

What's New In Machine Learning?

What's New In Machine Learning?

What's Stopping Us From Building a Warp Drive?

What's Stopping Us From Building a Warp Drive?

The weirdest paradox in statistics (and machine learning)

The weirdest paradox in statistics (and machine learning)

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Spiking Neural Networks for More Efficient AI Algorithms

Spiking Neural Networks for More Efficient AI Algorithms

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

How to Create a Neural Network (and Train it to Identify Doodles)

How to Create a Neural Network (and Train it to Identify Doodles)

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

How AI Image Generators Work (Stable Diffusion / Dall-E) - Computerphile

How AI Image Generators Work (Stable Diffusion / Dall-E) - Computerphile

Что происходит с нейросетью во время обучения?

Что происходит с нейросетью во время обучения?

Что если мы - Марсиане?! / Эволюция Млечного Пути / Астрообзор #198

Что если мы - Марсиане?! / Эволюция Млечного Пути / Астрообзор #198

Yann LeCun | Self-Supervised Learning, JEPA, World Models, and the future of AI

Yann LeCun | Self-Supervised Learning, JEPA, World Models, and the future of AI

Модели RL Foundation уже здесь!

Модели RL Foundation уже здесь!

Момент, когда мы перестали понимать ИИ [AlexNet]

Момент, когда мы перестали понимать ИИ [AlexNet]

Can We Build an Artificial Hippocampus?

Can We Build an Artificial Hippocampus?

MIT Introduction to Deep Learning (2023) | 6.S191

MIT Introduction to Deep Learning (2023) | 6.S191

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention

MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention

Превратите ЛЮБОЙ файл в знания LLM за СЕКУНДЫ

Превратите ЛЮБОЙ файл в знания LLM за СЕКУНДЫ

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com