- 博客(1)
- 问答 (1)
- 收藏
- 关注
原创 BERT算法
第一篇博客预览(2020.7.14) BERT是Bidirectional Encoder Representations from Transformers的缩写,是一种新型的语言模型,通过联合调节所有层中的双向Transformer来训练预训练深度双向表示。 它基于谷歌2017年发布的Transformer架构,通常的Transformer使用一组编码器和解码器网络,而BERT只需要一个额外的输出层,对预训练进行fine-tune,就可以满足各种任务,根本没有必要针对特定任务对模型进行修改。 BERT将
2020-07-14 02:04:42 587
空空如也
博主您好,我在使用yolov5_Bifpn代码,出现和您一样的问题
2021-08-04
TA创建的收藏夹 TA关注的收藏夹
TA关注的人