L11-The Transformer: Masked Multi-Head Attention (Decoder)
Автор: Omar Alharbi
Загружено: 2024-08-02
Просмотров: 346
في هذه المحاضرة بدأنا في شرح جزء (Decoder) في نموذج (Transformer). وتناولنا بلوك (Masked Multi-Head Attention) ووضحنا الفرق بينه وبين المستخدم في جزء (Encoder).
============
Check out the Full Playlist for Course 2
• L1- From Logistic Regression to Neural Net...
============
check out the Full Playlist for Course 1
• L1- Preface | تمهيد
============
Facebook Page
/ dr-omar-alharbi-358739018534219
============
LinkedIn
/ omar-alharbi-4370a266
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: