- 博客(1)
- 资源 (7)
- 收藏
- 关注
原创 Transformer中到底做了什么?
Transformer中到底做了什么?Transformer在论文《Attention is All You Need》中被提出,后来应用于BERT,实现了深度文本语义预训练模型。参考代码如下:tensor2tensor githubbert github简单来说,transformer就是利用 self-attention 实现了在某个任务下句子中词与词的关联性。下面是根据ber...
2019-08-28 15:06:32 4889
数字电路报告
实验内容
1.初步掌握大规模可编程数字逻辑器件开发软件MAX-plusⅡ的最基本操作和使用方法。
2.设计一个三输入表决逻辑功能电路。
3.用GDF原理图输入法、TDF逻辑表达式输入法、TDF真值表输入法建立该电路功能,并且需要进行逻辑仿真。
4.编译和仿真正确后下载到实验箱,证明设计的正确性。
2012-10-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人