自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 Attention注意力机制和位置编码的机制

文章目录前言一、注意力计算规则二、使用步骤1.引入库2.读入数据总结前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考一、注意力计算规则它需要三个指定的输入Q(query), K(key), V(value), 然后通过计算公式得到注意力的结果, 这个结果代表query在key和value作用下的注意力表示. 当输入的Q=K=V时,.

2021-09-16 16:46:22 2379 1

原创 Task01 Transform在NLP中的兴起

11111123564111111111H2O is是液体210Created with Raphaël 2.3.0开始我的操作确认?结束yesno*[HTML]:sequenceDiagram张三 ->> 李四: 你好!李四, 最近怎么样?李四-->>王五: 你最近怎么样,王五?李四--x 张三: 我很好,谢谢!李四-x 王五: 我很好,谢谢!Note right of 王五: 李四想了很长时间, 文字太长了<br/>不适合放在一行.李四.

2021-09-14 21:40:10 180

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除