自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

码哥来了的博客

一个爱折腾的码农~ 公众号:码哥来了

  • 博客(3)
  • 资源 (1)
  • 收藏
  • 关注

原创 注意力机制Attention是个啥?

虽然注意力机制很早就提出来了(大概是2014年),直到今天它依然很火,几乎是所有大模型中都会用到的!

2024-07-01 16:16:12 635

原创 变形金刚Transformer(2017) -万字长文详解

关注我Transformer是谷歌在2017年的论文《Attention Is All You Need》中提出的,用于NLP的各项任务,在NLP领域中,几乎已经全面取代了RNN;在CV领域也是大放异彩,与CNN分庭抗礼,占据了半壁江山!Transformer中没有用的RNN也没有CNN(但会用到与RNN、CNN相关的先验的知识)。Transformer网络架构能够干所有Seq2Seq (with Attention) 能干的事情,并且效果更好。

2024-07-01 16:09:54 1001

原创 Git、TortoiseGit安装配置和使用详细教程

Git、TortoiseGit安装配置和使用详细教程

2023-04-23 21:00:41 9079 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除