自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Attention Is All You Need要点

要点内容:Transformer,这是一种避免使用循环的模型架构,完全依赖于注意机制来绘制输入和输出之间的全局依赖关系。Transformer允许更显著的并行化。Transformer是第一个完全依赖于self-attetion来计算其输入和输出表示而不使用序列对齐的RNN或卷积的转换模型。模型结构。

2024-12-27 08:02:00 1807

原创 Deep Residual Learning for Image Recognition要点

在上面的普通网络的基础上,我们插入快捷方式连接(图3,右),将网络变成其对应的残差版本。当输入和输出的尺寸相同时,可以直接使用标识快捷方式(等式(1))(图3中的实线快捷方式)。当维度增加时(图3中的虚线快捷方式),我们考虑两个选项:(A)快捷方式仍然执行恒等映射,并为增加维度填充了额外的零项填充。如果可以将添加的层构造为标识映射,则较深的模型应具有的训练误差不大于其较浅的模型的训练误差。通过残差学习的重构,如果恒等映射是最佳的,则求解器可以简单地将多个非线性层的权重趋近于零来逼近恒等映射。

2024-12-27 06:58:37 346

原创 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding要点总结

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding要点总结

2024-12-27 04:32:41 1859

原创 Distributed Representations of Words and Phrases and their Compositionality要点总结

Distributed Representations of Words and Phrases and their Compositionality要点总结

2024-12-27 02:46:06 616

原创 【自用】动手学深度学习——跟李沐学AI要点

自用,是学习实时笔记,未条条记录,没有进一步加工组织语言,按需查看。

2024-09-09 22:49:46 1751 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除