BERT模型详解

时间:2020-10-21 09:35:02   收藏:0   阅读:201

1 简介

1.1 创新点

1.2 成功

2 模型

2.1 基本思想

2.2 建模目标

可以和同是双向的ELMo对比一下:

2.3 词嵌入(Embedding)

-技术分享图片

2.4 预训练任务(Pre-training Task)

2.4.1 Task 1: Masked LM

2.4.2 Task 2: Next Sentence Prediction

2.5 微调(Fine-tunning)

3 优缺点

3.1 优点

3.2 缺点

作者在文中主要提到的就是MLM预训练时的mask问题:

4 参考文献

原文:https://www.cnblogs.com/zingp/p/13849679.html

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!