BERT: Bidirectional Encoder Representations from Transformers
Автор: Centro de Excelência em IA & Deep Learning Brasil
Загружено: 2018-11-12
Просмотров: 2093
A arquitetura BERT faz uso de conceitos de trabalhos recentes em representações contextuais incluindo Aprendizado de Seqüência Semi-supervisionado, Pré-Treinamento Gerativo, ELMo e ULMFit. No entanto, ao contrário desses modelos anteriores, o BERT é a primeira representação de linguagem profundamente bidirecional e não supervisionada, pré-treinada usando apenas um corpus de texto simples.
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: