自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 【打工仔的日常】搭建自己的Prometheus(一)

搭建自己的Prometheus

2025-02-06 11:07:25 365

原创 【打工仔的日常】推荐一个在线查看服务端日志的中间件

在线查看服务端日志

2025-01-07 16:54:38 216

原创 写MFC遇到的各种大大小小坑(二)

搭建环境:VS2013(mfc120生成器)+python3.6这是一个记录了遇到的大大小小的坑,真的是十个里面九个是坑!!这里是用来记录我遇到的坑的,当然里面还有许多未解之谜,我自己也不明白。python调用方面:1.工程环境设置:由于我的电脑是64位的,我安装的python也是64位的,所以需要把我的工程的所有生成编程64位的,不然不管怎么设置工程属性都不能编译成功,会显示找不...

2019-07-03 15:37:47 397

原创 写MFC遇到的各种大大小小的坑

搭建环境:VS2013(mfc120生成器)+python3.6这是一个记录了遇到的大大小小的坑,真的是十个里面九个是坑!!这里是用来记录我遇到的坑的,当然里面还有许多未解之谜,我自己也不明白串口方面:1.COM控件方面:据说这个控件其实是可以自己写的……然后我想了一下……不想写,然后去网上下载了一个。众所周知,COM控件32位的在64位系统中也是可以用的。然后,问题是我也成功注册...

2019-07-03 11:12:19 1253 3

原创 简单的opencv-python的总结

好久没写博客了,总结一下过年之后一直在做的一个事情。其实很简单,就是一个图片上面文字的提取工作。其实这个总结相当于对于一些常用的Opencv -python的总结吧。好了,here we go !!!1.滤波平滑均值滤波(不过这个用的有点少……)原理很简单,就是……平均……好吧,这个所有图像处理的课都会提到。而且,超级简单,我就不废话了。dst =cv2.blur(img, (5,...

2019-03-20 19:25:08 1025

原创 【傻瓜攻略】深度学习之从入门到放弃

从研究生进来之后,一直到现在已经进行了一年关于DP的学习,写篇文章总结一下我蹒跚的学习过程。总结来说是一个从入门学习到几乎想要放弃的过程。顺带列举下面几个坑,希望能帮助一下同样在这条路上行走的旅人们。1、overfitting这个东西很多刚刚进门的新人,包括刚刚做完一个项目的我,都会认为自己的神经网络效果不好可能是过拟合了。但是实际上过拟合这种事情听说的人多,看到的人很少。当你的激活函数是...

2019-03-18 15:08:09 2086 2

原创 OCR浅解析

前几天由于老师的课题关系去了解了一下OCR 方面的知识。总结一下,当然都是浅解析的点。(很可能由于认知不足存在问题……)1、关于发展历史。一开始的OCR 是从报刊行业发展而来,由于印刷的关系,字的光电反应(还是别的什么?)和没有字的地方不同,这是最早的OCR,然后应用于了复印,传真这些方面。在后来是为了方便盲人的生活,OCR用于分辨书籍中的字然后用软件读出来。渐渐地应用于邮政分类等方面。现在发...

2019-03-18 15:08:02 2078 1

原创 【傻瓜攻略】深度学习之反向传播(十二)

终于到了反向传播了……写完这个,整体的神经网络差不多就该结束了……✿✿ヽ(°▽°)ノ✿下面开始:1.1反向传播的直观理解反向传播的土味解释就是,将误差一点一点往前向进行传播,从而达到更新权重矩阵的目的。权重矩阵的更新主要就是误差来决定。这里的误差指的是损失函数的值。偷一张神经网络的图:以及单个神经元的图:其反向传播过程为:...

2018-06-11 20:29:38 442

转载 【傻瓜攻略】深度学习之优化算法下(十一)

2.2 Adam算法

2018-06-11 16:48:56 747

原创 【傻瓜攻略】深度学习之优化算法中(十)

继续上一篇博客的优化算法介绍:1.7  Adadelta算法论文《ADADELTA: An Adaptive Learning Rate Method 》为了解决adagrad算法自身所携带的分母随着迭代次数增加,越来越大,梯度趋向于0,提前结束训练的问题。提出了adadelta算法。该算法只使用了累加项中离当前时间点较近的项。即:令:,表示梯度的均方根误差的意思。则增量为:该算法的伪代码为:参考...

2018-06-06 21:50:11 456

原创 【傻瓜攻略】深度学习之海森矩阵(九)

本来这一章应该接着上一章进行优化算法的介绍的。但是,后来我发现接下去的很多算法都是与海森矩阵紧密相关的,所以在这一章先介绍海森矩阵,牛顿算法这些,然后再接着介绍剩余的优化算法。话不多说,下面开始:1、海森矩阵 Hessian Matrix海森矩阵是一个自变量为向量的实值函数的二阶偏导数组成的方块矩阵,函数为:海森矩阵和牛顿法密切相关。可以利用海森矩阵进行多元函数的极值判断。参考:https://b...

2018-06-06 21:48:56 20943 3

原创 【傻瓜攻略】深入学习入门之优化算法(八)

这一章开始介绍各种优化器(优化算法)……这里的目录是根据TensorFlow中优化器的目录进行介绍的。预计介绍的就是这么几个常用的优化器了,那么下面开始1、梯度下降算法(批量梯度下降,随机梯度下降,小批量梯度下降等)简单而言,就是人在山坡上一点,然后环顾四周,找到梯度最大(最陡)的点,然后往下走。走完再环顾四周,找到梯度最大点,然后往下走……循环,最后就能走到最低点了。当然根据这个算法的特性可以知...

2018-06-05 10:32:55 588

转载 【傻瓜攻略】深入学习入门之正则化(七)

上一章写了很多损失函数,其实大多数是我直接复制粘贴整理过来的……是各个神经网络所用到的损失函数的整理。但是我还是没有一些更深一点的理解,可能在后面整理到各种神经网络的时候会用到。这章博客的主要内容一是分享一个有趣的关于logistic分类的推到,二则是开始聊一聊损失函数中的正则项。这章也是转载的较多,我会标注出原网址的。如果有疏漏就劳烦看官提醒了。虽然感觉确实没人看……那么现在开始我看到的第一个分...

2018-05-31 21:40:31 363

转载 【傻瓜攻略】深入学习入门之损失函数(六)

今天开始理,反向传播了……哎……反向传播有点难啊,码字猿正在一点点学习,学到一些写一些,希望看到这个博客的大佬们能指点一二……跪谢好吧,先从损失函数开始写起。说到损失函数,最先需要提及的就是交叉熵了。当然也有用均方差来作为损失函数的,这两者之间的区别,或许这张图比较适合解释这个问题。参考网址:https://wenku.baidu.com/view/c93b4dd9b04e852458fb770b...

2018-05-29 14:39:26 558

原创 【傻瓜攻略】深入学习入门之全连接层以及分类(五)

紧接着上一章,全连接层。

2018-05-22 20:10:41 9606

原创 【傻瓜攻略】深入学习入门之激活函数(四)

参考:http://cs231n.github.io/neural-networks-1/2.tanh(反正切)函数这个函数的取值范围为[-1,+1],其实看图也可以发现这个函数与上一章所述的sigmoid函数类似,但是由于这个函数是0对称的,所以实际应用中tanh的效果会略好于sigmoid函数 另外它的求导函数也是很简单,所以应用还是很方便的。3.ReLU(Rectified Linear U...

2018-05-17 19:45:58 464

原创 【傻瓜攻略】深入学习入门之激活函数(三)

紧接着上文的激活函数进行论述……啊……提到激活函数,首先需要涉及的一个概念是熵。a、熵:是信息论里面的概念,通俗的将就是,熵越小信息越明确,熵越大信息越不确定。至于很学术的解释,同志们请自行百度吧。(#^.^#)b、最大熵原理:...

2018-05-15 21:23:10 398

原创 【傻瓜攻略】深入学习入门之池化层及激活函数(二)

紧接着上文,二话不说,开始放干货!!1、池化层参考博客:https://www.cnblogs.com/believe-in-me/p/6645402.htmlhttps://www.zhihu.com/question/49376084池化的作用:1、使特征图变小,简化网络计算复杂度                    2、进行特征压缩,提取主要特征池化操作一般有两种,一种是Avy Pooli...

2018-05-10 16:44:07 1671

原创 【傻瓜攻略】深入学习入门之卷积层以及大体框架(一)

呐,作者从今年刚开始学习机器学习,深度学习这方面……写个博客希望在一起学习的朋友们可以相互交流指正……博客内容浅显,也可能存在错误,如果有bug希望大神们能批评指正。话不多说,下面开始放干货!1、神经网络的大体架构上面是一张关于vgg19的结构图,以此,为例,神经网络大致可以包括(不正经的傻瓜总结,跟书上不太一样):输入层,卷积层,池化层,激活函数,优化器,分类器,学习速率,损失函数。可能和书上的...

2018-05-10 13:22:17 659 3

可以在线查看服务端日志的中间件

可以在线查看服务端日志的中间件

2025-01-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除