Объяснение GPT2!
Автор: Connor Shorten
Загружено: 2020-02-13
Просмотров: 30577
В этом видео рассматривается статья GPT-2 «Языковые модели — неконтролируемые многозадачные обучающиеся». Статья получила такое название, поскольку эксперименты показывают, как массивные языковые модели, обученные на больших наборах данных, могут выполнять такие задачи, как ответы на вопросы и перевод, тщательно форматируя их как входные данные для языкового моделирования.
Ссылки на статьи
Статья по GPT-2: https://cdn.openai.com/better-languag...
Демонстрация AllenNLP GPT-2: https://demo.allennlp.org/next-token-...
Иллюстрированная версия GPT-2: http://jalammar.github.io/illustrated...
Комбинирование GPT2 и BERT для создания фальшивого человека: https://www.bonkerfield.org/2020/02/c...
Спасибо за просмотр! Подпишитесь!
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: