自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 资源 (3)
  • 问答 (1)
  • 收藏
  • 关注

转载 Linux颜色所代表的文件类型

Linux不同颜色所代表的的文件类型:蓝色:目录绿色:可执行文件红色:压缩文件浅蓝色:链接文件白色:普通文件黄色:设备文件

2020-01-31 20:18:06 318

原创 如何实现自由复制知乎文章?【1分钟掌握】

原理:知乎是通过JavaScript禁止用户进行复制文章。所以关闭掉浏览器解析JS代码就可以实现复制。实现:以chrome浏览器为例。按F12,再按F1,进入如下图所示界面:勾选箭头所指按钮选中内容,按住ctrl+c即可复制文章粘贴效果,如图所示:温馨提醒,完成复制文章后,不要忘记关闭disable JavaScript。...

2020-01-29 23:33:47 26499 2

深度学习模型涨点注意力模块即插即用

深度学习模型涨点注意力模块 即插即用,优化论文模型质量 # 1. SGE Attention SGE Attention在不增加参数量和计算量的情况下允许分类与检测性能得到极强的增益。同时,与其他attention模块相比,利用local与global的相似性作为attention mask的generation source,可进行较强语义表示信息。 2. A 2 Attention 作者提出的A 2-Net的核心思想是首先将整个空间的关键特征收集到一个紧凑的集合中,然后自适应地将其分布到每个位置,这样后续的卷积层即使没有很大的接收域也可以感知整个空间的特征。 第一级的注意力集中操作有选择地从整个空间中收集关键特征,而第二级的注意力集中操作采用另一种注意力机制,自适应地分配关键特征的子集,这些特征有助于补充高级任务的每个时空位置。 3. AFT Attention 注意力机制作为现代深度学习模型的基石,能够毫不费力地对长期依赖进行建模,并关注输入序列中的相关信息。然而,需要点积自注意力 - 广泛使用是在Transformer架构中的一个关键组件 - 已被证明

2023-10-22

【Demo】Editor.md的初步使用

【Demo】Editor.md的初步使用

2021-05-13

ex04_redo.zip

项目

2021-05-04

【2020蓝桥杯】python刷题-蓝桥杯.zip

【2020蓝桥杯】python刷题-蓝桥杯.zip

2021-04-18

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除