自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

张先生-您好的博客

记录学习的点点滴滴

  • 博客(12)
  • 收藏
  • 关注

原创 Python数据结构之线索二叉树和顺序存储

Python数据结构之线索二叉树和顺序存储二叉树顺序存储顺序存储原则1)顺序存储只考虑完全二叉树(结点索引以零开头)2)第n个元素的左子节点2n + 13)第n个元素的右子节点2n + 24)第n个元素的父结点(n-1)/ 2代码​   先序、中序和后序遍历的代码实现过程可以与递归算法进行类别。class ArrayBinaryTree: def __init__(s...

2020-04-30 11:47:21 694 1

原创 Python数据结构之二叉树查、删、修

Python数据结构之二叉树增、查、删、修增加​   一层一层添加数据(层序遍历原则),使用队列对结点进行存储,从左向右增加结点,最终可形成完全二叉树。def add(self, val): """添加树节点实现完全二叉树""" node = Node(val) if self.root is None: self.root = node ...

2020-04-25 16:16:17 816

原创 Python数据结构之二叉树的遍历

Python数据结构之二叉树的遍历​   二叉树是一种非常重要的数据结构,很多其它数据结构都是基于二叉树的基础演变而来的。对于二叉树,有深度遍历和广度遍历,深度遍历有前序、中序以及后序三种遍历方法,广度遍历即我们平常所说的层次遍历。因为树的定义本身就是递归定义,因此采用递归的方法去实现树的三种遍历不仅容易理解而且代码很简洁。深度遍历前序遍历非递归def pre_order(sel...

2020-04-25 15:20:13 239

原创 pytorch之分组卷积

分组卷积推荐:请先看最底部的参考连接​ ????普通卷积说明:普通卷积为组数为1的特殊分组卷积。class Conv(nn.Module): def __init__(self, in_ch, out_ch, groups): super(Conv, self).__init__() self.conv = nn.Conv2d( ...

2020-04-19 16:36:48 4659 1

原创 不定期读一篇Paper之GC-Net

不定期读一篇Paper之GC-Net前言谁能经得起更多的质疑,谁才更值得相信。即使经过很多质疑建立起来的理论,出现了新的问题,仍然可以质疑。质疑是最基本的思考。质疑本身也要经得起质疑。​                — 北京大学物理学院副教授、北京大学高性能计算平台主任​              ...

2020-04-13 15:56:23 356

原创 kaggle之泰坦尼克之灾

Kaggle之泰坦尼克之灾第一次参加kaggle比赛,在这里主要记录自己的一些心得,主要免得自己忘记了。话不多说,进入正题。????难点一:年龄值缺失值?​   对于缺失值的处理,如果缺失值占总体样本比例不大,可以考虑删除缺失的样本,因为这些缺失的样本对最后的预测的影响较小,如果缺失值较多,则1)连续性数据,用均值进行填补。2)离散性数据,使用众数进行填补。当然,除此之外可以用算法进行的填...

2020-04-12 11:46:11 230

原创 不定期读一篇Paper之Non local Neural Network

不定期读一篇Paper之Non local Neural Network前言​   捕获长距离的依赖是深度神经网络的重点,对于序列数据而言,可以在时间维度上进行捕获,而对于图像而言,则需要通过不断堆叠网络层来获得更大感受野信息,从而获得更多的信息(网络越深,则其感受野较大,且能获得图像的高级语义信息)。但是,在卷积操作中通过堆叠的形式,其效率不但不高效,而且优化也是一个非常难的问题。Non ...

2020-04-12 11:37:51 251

原创 不定期读一篇Paper之SKNet

不定期读一篇Paper之SKNet前言​   SKNet是SEnet的升级版本,你会在里面看到很多SENet的身影。首先,由于传统的卷积网络在某一层所关注的感受野的大小是相同,所以,SKNe提出关注同一层不同的感受野,并且SKNet提出动态的选择不同的感受野。这里引用作者原话:用multiple scale feature汇总的information来channel-wise地指导如何分...

2020-04-06 16:22:29 630

原创 不定期读一篇Paper之Grad_CAM

不定期读一篇Paper之Grad_CAM目的:本篇论文注重对卷积网络神经网络这个黑盒子,进行可视化,使得我们能够对于我们的网络究竟最后学到了那些重要的特征,能够有一个清晰的了解,严格说这是一种方法,能使我们对于模型的检测起到很好的作用,尤其是在注意力机制的模型中,我们可以看到网络是否真的在学习我们所关注的对象。这种方法可以很好用在图像分类、图像理解、目标检测和图像问答领域中,有助于我们更好地修...

2020-04-02 16:54:33 743

原创 不定期读一篇Paper之SENet

不定期读一篇Paper之SENet前言​   首先,引用原文中的一段文字,如下图:​   所以,SENet的提出了更加关注不同通道的之间的重要程度,下面是VGG16网络第一层的特征图可视化图片来源,共有64个通道,从图中我们可以看出不同特征图所关注的图像的特征不同(当然,随着网络的加深,网络能够表达的信息更加的抽象,这里引用了浅层网络),有些通道关注是一些纹理信息,有些是一些轮廓信息等...

2020-04-02 16:47:40 1298

原创 不定期读一篇Paper之CBAM

不定期读一篇Paper之CBAM前言​   本论文针对先前对通道注意力或者空间注意力机制,提出了一个简单又有效的注意力机制模块,该模块既注意关注通道方面,使得网络知道“what”,又针对空间方面,使得网络知道"where",两面进行调整。此外,CBAM是一个轻量化且通用的模块,它可以被整合到任何CNN架构的网络中,并且可以进行端对端的训练。框架​   CBAM有两个注意力模块:通道和空...

2020-04-02 16:38:53 350

原创 不定期读一篇Paper之BAM

不定期读一篇Paper之BAM前言​   相较于CBAM模块的次序链接,通道注意力在前,空间注意力在后的连接方式,BAM使用了“并联”式的结构,使得通道注意力和空间注意力相互作用,实现了网络的“what”和“where”,并且它也是一个模块化的结构,可以嵌入任何CNN的网络中。框架空间Attention​   空间attention模块产生一个空间注意力图来强调和抑制空间...

2020-04-02 16:33:56 230

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除