AMiner平台(https://www.aminer.cn)由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。
必读论文:https://www.aminer.cn/topic
论文集地址:https://www.aminer.cn/topic/5ffd8c4792c7f9be215680cc
Transformer是一个利用注意力机制来提高模型训练速度的模型,适用于并行化计算,在精度和性能上都要高于之前流行的RNN循环神经网络。该论文集收录了google Transformer在计算机视觉任务上应用的论文。
该论文集共收录31篇论文,来自华为诺亚方舟实验室的王云鹤在该领域发表了2篇论文,在所有学者中最多。
订阅了解更多论文信息,定制您的个人科研动态信息流:https://www.aminer.cn/user/notification?f=mt