自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 FCN,PSPNET,Deeplab-V3的网络结构

源于对每个像素点进行分类,采用反卷积层对最后一个卷积层特征图进行上采样,尺寸与输入图像相同,对每一个像素产生一个预测,极大的保留输入图像的空间信息,最后在上采样的特征图上进行分类。每一层级的特征图大小都不相同,每个层级后使用1×1卷积层,将维度降低到原始维度的层级分之一。提取图像信息时,难以利用多尺度信息,可能导致详细信息的丢失,和损害分割的准确性。然后对低维特征值进行上采样,通过双线性插值得到原始特征图大小相同的特征。FCN将CNN中的全连接层换成卷积层,所以输出的是一个图,而不是一个概率。

2024-01-09 23:45:13 458

原创 计算机模拟空战

蒙特卡洛树搜索大多数深度强化学习算法只依据神经网络输出的动作价值或者动作的概率分布直接进行动作选择。仅仅依赖网络学习决策模型,缺乏策略增强的方法,导致策略生成质量不高,训练难以收敛。并且,对于存在高纬度问题的场景,由于动作与状态空间巨大,导致训练及决策缓慢。

2024-01-09 23:17:51 1549

原创 Transformer的常用结构

使用时常用多层编码器和解码器,每一个编码器结构上一样,但权重参数不同,每一个编码器里面分为两层,一层是Self Attention Layer,另一层是FFNN(前馈神经网络)。Self Attention:自注意力机制可以把其他单词的理解融入到当前的单词理解中,它使得模型不光是关注这个位置的词,还能关注句子中其他位置的词,作为这个词的补充线索。在Self Attention层中,和编码器不一样,解码器里,自注意力层只允许关注输出序列中早于当前位置的单词,而屏蔽当前位置之后的其他位置。

2024-01-09 22:57:39 517

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除