自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 资源 (3)
  • 问答 (1)
  • 收藏
  • 关注

原创 如何关闭一切流氓程序开机自启【gitter、vmware等】

操作步骤如下:1、按win+r快捷键,输入msconfig,点击确定;(注:win键在Alt左侧)2、点击启动选项卡,在下方列表中找到你想要关闭开机自启项目,选中,点击禁用即可;3、若提示重新启动后设置生效,点击重新启动即可生效。...

2019-09-23 21:02:45 3076

原创 WEB前端学习笔记01利用纯CSS书写二级水平导航菜单

HTML部分代码:<!DOCTYPE html><html> <head> <meta charset="utf-8" /> <title>下拉导航栏</title> <link rel="stylesheet" href="css/mynew.css" /> </head> ...

2019-09-11 19:11:32 913 3

深度学习模型涨点注意力模块即插即用

深度学习模型涨点注意力模块 即插即用,优化论文模型质量 # 1. SGE Attention SGE Attention在不增加参数量和计算量的情况下允许分类与检测性能得到极强的增益。同时,与其他attention模块相比,利用local与global的相似性作为attention mask的generation source,可进行较强语义表示信息。 2. A 2 Attention 作者提出的A 2-Net的核心思想是首先将整个空间的关键特征收集到一个紧凑的集合中,然后自适应地将其分布到每个位置,这样后续的卷积层即使没有很大的接收域也可以感知整个空间的特征。 第一级的注意力集中操作有选择地从整个空间中收集关键特征,而第二级的注意力集中操作采用另一种注意力机制,自适应地分配关键特征的子集,这些特征有助于补充高级任务的每个时空位置。 3. AFT Attention 注意力机制作为现代深度学习模型的基石,能够毫不费力地对长期依赖进行建模,并关注输入序列中的相关信息。然而,需要点积自注意力 - 广泛使用是在Transformer架构中的一个关键组件 - 已被证明

2023-10-22

【Demo】Editor.md的初步使用

【Demo】Editor.md的初步使用

2021-05-13

ex04_redo.zip

项目

2021-05-04

【2020蓝桥杯】python刷题-蓝桥杯.zip

【2020蓝桥杯】python刷题-蓝桥杯.zip

2021-04-18

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除