自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

努力学挖掘机的李某某的博客

机器学习,数据挖掘

  • 博客(7)
  • 收藏
  • 关注

原创 Kruskal算法求最小生成树的c++代码实现

kruskal算法是一类适用于稀疏图的最小生成树算法,主要思想也很简单,将所有的边分为 属于生成树的边S和不属于的V-S ,每次在V-S中找一个权值最小的边放入S中,同时该边不构成回路,关于是否构成回路,可以使用并查集来判断。比如上图中假如{1,2} , {1,3}都已经属于,那么unionSet[3]  = unionSet[2] = unionSet[1] = 1;这时如果想加入{

2017-09-29 15:52:49 3415

原创 Prim算法求最小生成树的c++代码实现

Prim算法是求解最小生成树的常用方法,它的思想非常简单,讲所有的点集合V分为 已经放入最小生成树集合的S和未放入的V-S,每次在V-S中选择一个距离S最近的点放入到S中,直到所有的点都放入S。就是很简单的贪心策略,不过可以证明是全局最优,prim算法对于稠密图效果比较好,具体步骤可以看点击打开链接,讲解的很清楚。对于上面的图,显然最小生成树的结果应该是{1,3,6,2,4,5}或者{1,

2017-09-29 11:07:38 11333

原创 Djkstra最短路径算法的c++代码实现

Djkstra算法是求解单源(起始点固定)最短路径问题的一种经典方法,它采用了贪心策略(其实我觉得也是动态规划),可以求得图中的一个点到其他所有点的距离,计算复杂度是 O(E|V|),如果采用最小堆优化可以达到O(ElogV )。算法的整体思想是将顶点分成两类:已经构成最短路的点的集合V1和没有构成最短路的点的集合V2。我们将dist[i]设置为第 i个点到V1的距离,每次将V2中取距离V1集合最

2017-09-29 09:44:09 3125

原创 ResNet 《Deep Residual Learning for Image Recognition》 阅读笔记

1. Introduction首先作者说明现在很多效果很好的网络都采用了比较深的网络结构,那么想要获得性能更好的网络,是否只需要叠加层数就行了呢?作者的实验结果如下这个问题的一个阻碍就是臭名昭著的梯度爆炸和梯度消失问题会导致无法收敛,但是这个问题通过标准化的初始化和BN这样的方法基本可以解决。虽然可以收敛,但是还有一个问题叫degradation,就是当网络变深,准确率

2017-09-14 14:34:56 2373

原创 论文阅读《Edge Detection Using Convolutional Neural Network》

Abstract:提出了一个基于CNN的边缘检测算法,可以直接得到图像块是否为边缘的预测。Introduction:1.传统的方法:基于梯度,假设不同的物体之间存在较大的梯度,相同物体内的梯度较小,但是现实情况下很多时候这个假设不成立,因此考虑用学习的方法。2.之前的学习方法:学习能力不够,无法直接根据原始图像块进行边缘检测,需要进行许多颜色和梯度的特征提取来表征原图像,很复杂而且

2017-09-14 11:46:10 2691

原创 VGGNet 《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION》学习笔记

1.INTRODUCTION作者开篇就说明了VGG的特点——深度, 为啥可以这么深呢?因为卷积核的size小!2.卷积结构输入是224*224的RGB图像,预处理是对于每个RGB值减掉了训练集的均值。卷积核的大小:3*3,能够表达上/下, 左/右,中心这些概念的最小尺寸。作者也在其中一种网络中使用了1*1尺寸的卷积核,可以看做是一种线性的变换。stride=1, pad

2017-09-07 15:28:23 2112 1

原创 AlexNet 《ImageNet Classification with Deep Convolutional Neural Networks》学习笔记

AlexNet的主要结构总共包含8层学习层:5层卷积层和三层全连接层下面介绍了几个重要的网络结构:1.ReLU Nonlinearity相比较于f(x) = tanh(x) 或者 f(x) = (1 + e^-x)^-1这样的饱和非线性(这两个函数在 -1,1 和 0,1附近接近饱和),对于随机梯度下降的方法,f(x) = max(0; x) 也就是ReLU要比两者

2017-09-06 18:10:10 2492

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除