![](https://img-blog.csdnimg.cn/2019091813595558.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
日积月累
每天学习内容的记录
TianShan_1995
人工智能,机器学习,机器视觉,大数据优化。
展开
-
20201028_C++_静态成员_友员_观看韦东山课程笔记
一、静态成员1.如果想获得一共实例化了多少个对象,这个计算一共实例化了多少个对象的变量不应该属于某一个对象,应该属于这个类,所以我们把这个变量设置为静态的。2.如果把变量设置为静态的,则这个变量不属于任何的对象,而是属于整个类的。这个静态变量不是实例化多少个对象就有多少个,而是只有一个。3.让一个变量属于这个类,在所有的对像中都不存在呢? 在定义时加上static4.怎么访问静态变量 需要在public里面定义一个函数,用这个函数来获取这个静态变量的值。那么这个函数也应该是属于整个类的。于是原创 2020-10-28 20:06:47 · 158 阅读 · 0 评论 -
20201028_C++_构造函数_观看韦东山课程笔记
课程视频录制于:2016年04月19日一、构造函数1.为什么引入构造函数2.所谓构造函数就是和类名相同的函数,可以带参数也可不带参数,也可以带有不同的参数。3.在构造类对象的时候,根据传进来的参数来判断是调用哪一个构造函数。4.如果一个没有参数的构造函数,那么在构造类对象的时候不要写圆括号(因为学了圆括号不是构造对象,而是声明)。5.在构造函数的参数里有这样一个参数 char* work="none" ,在不给这个参数传入时,默认就是none。6.实例化对象的方法:P...原创 2020-10-28 13:46:03 · 209 阅读 · 0 评论 -
20201027_C++_类的引入_访问控制_程序结构_重载_指针_引用_观看韦东山课程笔记
参考书籍《C++程序设计教程》第二版 钱能 //篇幅较少 讲的基本到位 快速学习的话可以看它参考书籍《C++ primer plus》第六版 中文版 //篇幅较大,讲的非常细,有很多时间,想掌握的更细一、类的引入1.面向对象(Object Oriented Programming简写OOP)程序设计的三大特点:1.封装 2.继承 3.多态二、访问控制1.class是对struct的扩展,含有数据成员,含有成员函数。2.如果权限不写public就会默认权限是private3....原创 2020-10-28 07:27:48 · 154 阅读 · 0 评论 -
20201010_受限玻尔兹曼机_观看覃秉丰课程笔记
一、马尔可夫性状态转移的概率只依赖于当前的这个状态,将来只依赖于现在不依赖于过去的过程,我们成为马尔可夫过程。时间和状态都是离散的马尔可夫过程称为马尔可夫链例如:...原创 2020-10-10 22:33:46 · 242 阅读 · 0 评论 -
20201010_玻尔兹曼机_观看覃秉丰课程笔记
视频录制于2017年一、玻尔兹曼机理解起来要复杂一些,比BP网络,卷积神经网络,残差神经网络,LSTM递归神经网络等理解起来还要难一些。尽管玻尔兹曼机复杂但是还是很重要的,在2016年一片深度学习奠基性的论文用到了受限的玻尔兹曼机。这片论文堪称开辟了深度学习这个研究放向,可见玻尔兹曼机还是很重要的。二、BP网络比玻尔兹曼机的使用范围要广泛一些。三、退火是一种金属的热处理工艺,将金属加热到一定的温度,保持足够时间,然后以适宜速度慢慢冷却。退伙可以改善材料性能,提升金属品质。玻尔兹曼机会涉及到模拟退原创 2020-10-10 22:19:05 · 179 阅读 · 0 评论 -
20201010_Hopfield神经网络入门_hopfield代码实践_观看覃秉丰课程笔记
视频录制于2017年一、从单层感知器出发一条分支得到BP神经网络(出现了隐藏层),另一条重要分支是hopfield神经网络。二、hopfield神经网络引用了物理理学的分析方法,把网络作为一种动态系统并研究这种网络动态系统的稳定性。三、hopfield神经网络的结构上图这种网络,每一个神经元的输出不会反馈给自己(没有自反馈),但是会反馈给除了自身的其它所有的神经元。四、参考《人工神经网络理论、设计及应用》的120页吸引子,伪吸引子如果收敛到伪吸引子就不会跳出来了,于是出现了模原创 2020-10-10 19:52:53 · 598 阅读 · 0 评论 -
20201010_过拟合以及神经网络小工具_观看覃秉丰课程笔记
视频录制于2017年一、拟合的三种状态欠拟合:拟合的程度还不够,不能达到很好的输出效果,没有很好的实现预期的结果。过拟合:百分之百通过了所有的数据,但是这条曲线比较歪歪扭扭,为了根据训练数据得到比较好的曲线,但是形状可能会比较奇怪,当我们把新的数据带进来之后效果并不会很好。过拟合就是拟合出了一条非常奇怪,非常复杂的一条曲线,虽然说对样本完成了百分百的拟合,但是并不一定新的数据进来做到比较好的输出。这样的拟合虽然把训练数据分的特别好,但是不一定反映了真实的情况。再来新的样本点的时候不.原创 2020-10-10 15:02:58 · 172 阅读 · 0 评论 -
20201010_深入理解BP神经网络_论文讲解_观看覃丰乘课程笔记
视屏录制于2016年底(12月份)一、题目:understanding the difficulty of training deep feedforward neural networks(理解深度前馈神经网络训练的难点)二、截取片段(1) Our objective here is to understand better why standrad gradient decent from random initialization is doing so poorly with deep原创 2020-10-10 12:15:22 · 440 阅读 · 0 评论 -
20201009_进军多层_BP神经网络介绍(代码实践2)_观看覃秉丰课程笔记
一、用到sklearn的数据集二、在训练时,比如说有10000个数据,一般会把这10000个数据分为100组,每组有100个数据,这样的话一个批次有100个数据,我们分成了100个批次,每个批次训练100个数据,这样可以提高训练速度,但是也不会影响训练的准确性。三、归一化输入数据的归一化,x = (x-x.min)/x.max 这个公式把输入的x转化成0到1的数字。原因:加入x非常大,权值和x相乘就会很大,把这个很大的数字送到激活函数里,输出就会无限趋近于0或者1(以sigmoid激活函数为原创 2020-10-09 23:16:41 · 178 阅读 · 0 评论 -
20201009_BP神经网络介绍(代码实践1)_观看覃秉丰课程笔记
一、BP神经网络解决异或问题参考人工神经网络理论、设计及应用 50页二、完整的python代码,用BP网络实现解决异或问题# coding: utf-8# 微信公众号:深度学习与神经网络 # Github:https://github.com/Qinbf # 优酷频道:http://i.youku.com/sdxxqbf # In[5]:import numpy as np# In[8]:#输入数据X = np.array([[1,0,0],...原创 2020-10-09 22:30:34 · 259 阅读 · 0 评论 -
20201009_深度学习入门_进军多层_BP神经网络的介绍_观看覃秉丰课程笔记
课程视频录制于2017年一、BP(Back Propagation) 神经网络 误差反向传播二、正是BP算法才把网络的维数提高到了多层三、高层特征不会像浅层特征一样特别明显,比如手写体识别,在浅层时手写的1,2,3...还能看的出来轮廓,到了高层提取的特征就看不出来是个什么了,但是这些特征计算机可以识别。深度学习可以自动的提取图片上的特征,这些特征人不见得理解,但是计算机是根据这些特征识别的物体四、激活函数有很多种sigmoid激活函数,在BP神经网络早期用的比较多。负.原创 2020-10-09 15:06:55 · 214 阅读 · 0 评论 -
20201008_线性神经网络解决异或问题_观看覃秉丰课程笔记
一、输入不能仅仅是x1和x2,而是,也就是引入了非线性的输入二、根据输出和输出激活函数(此时训练的输出激活函数是线性函数而不是sign函数)计算出输出三、完整python的代码# coding: utf-8# 微信公众号:深度学习与神经网络 # Github:https://github.com/Qinbf # 优酷频道:http://i.youku.com/sdxxqbf # In[6]:import numpy as npimport matplotlib原创 2020-10-08 23:14:02 · 199 阅读 · 0 评论 -
20201008_深度学习_线性神经网络_delta学习规则_梯度下降法_覃秉丰课程笔记
一、经过试验单层感知器不能解决异或问题或者更复杂的问题二、delta学习规则是一种利用梯度下降法的一般性的学习规则三、训练模型的目的是使代价函数的值最小四、梯度下降法 一维情况&二维情况五、梯度下降法的问题六、通过动态改变学习率的方法改善一维的情况,一开始的时候设置较大的学习率,在接近最优解的时候减小学习率七、解决局部最优解的问题比较复杂,待解决八、可以用线性神经网络来解决异或问题...原创 2020-10-08 22:17:01 · 386 阅读 · 0 评论 -
20201008_深度学习_从0到1_单层感知器_观看覃秉丰课程笔记
设计要求:代码实现:完整代码:# In[ ]:import numpy as npimport matplotlib.pyplot as plt# In[ ]:#输入数据X = np.array([[1,3,3], [1,4,3], [1,1,1]])#标签Y = np.array([1,1,-1])#权值初始化,1行3列,取值范围-1到1W = (np.random.random(3)-0.5)*2p原创 2020-10-08 09:53:24 · 284 阅读 · 1 评论 -
20201007_深度学习简介_观看覃秉丰课程笔记
课程录制于2017年从单层感知器开始讲解深度学习领域的大佬关系图原创 2020-10-07 22:31:47 · 200 阅读 · 1 评论 -
20201007_机器学习_深度学习_简介_python_观看覃秉丰课程笔记
一、人工智能 AI二、机器学习ML machine learning 机器学习算法指的是一类算法 机器学习里面有个算法叫神经网络三、神经网络 NN 输入层 隐藏层(一般多个) 输出层四、深度学习 DL 深度学习本质上是神经网络 深度学习和神经网络的根本区别在于 深度 深度指的是网络的层数 网络可以提取数据更加深层的特征 深度学习的层数越深 那么这个神经网络提取出来的特征就会越抽象五、卷积神经网络 CNN convolutional neural net...原创 2020-10-07 21:56:07 · 289 阅读 · 0 评论 -
20200917_主题:C/C++高级编程_抽象类_观看韦东山课程笔记
一、抽象类1.一个函数定义的时候加上vitual后面加=0的时候就会变成纯虚函数2.类里面有纯虚函数的话就会变成抽象类3.抽象类不能用来是实例化对象4.抽象类是为了给它的派生类(向下)定义好框架5.一个应用程序由多个人编写,分为应用编程和类编程 可以用生成动态库的方法使在应用编程里的程序改变的时候只重新编译应用编程,而不需要重新编译基类6.抽象类界面:应用程序只和相对固定的.h打交道 这个.h文件就是所谓的接口文件7.析构函数不能设置为纯虚函数...原创 2020-09-17 19:15:31 · 79 阅读 · 0 评论 -
20200918_主题:C/C++高级编程_函数模板_引入_重载_观看韦东山课程笔记
一、函数模板_引入1.C++里面模板分为两种 1.函数模板 2.类模板2.所谓模板就是为了让我们节省代码 对于相似的代码我们可以重复使用3.把类型作为参数来定义一个函数 就是所谓的函数模板template<typename T>4.模板函数一般不支持隐式类型转换 但是数组在模板里面可以隐式转换为指针 指针可以消除长度不一样的问题5.把可读可写的变量传到参数是const的模板函数是可以的,但是不能将一个const传到参数是可读可写的模板函数6.在传参的时候要分辨出 引用和指原创 2020-09-18 10:01:26 · 106 阅读 · 0 评论 -
20200917_主题:C/C++_面向对象编程_多重继承_构造函数_多态_类型转换_观看韦东山课程笔记
一、多重继承1.在继承的时候不写public的话默认是私有继承2.原创 2020-09-17 08:37:16 · 104 阅读 · 0 评论 -
20200916_主题:C/C++_静态函数_友元_观看韦东山课程笔记
C++1.静态函数不能访问非静态变量原创 2020-09-16 11:53:03 · 137 阅读 · 0 评论 -
20200912_主题:VsCode C/C++_nsga3
学习计划:1.学习nsga3算法原创 2020-09-12 08:47:51 · 180 阅读 · 0 评论 -
20200911_主题:VsCode C/C++_配置NSGA算法在mac上的VScode调试笔记
计划:1.可以实现通过设置lunch.json文件在VScode上进行单步调试2.可以实现在VScode上用Makefile文件编译原创 2020-09-11 08:04:52 · 144 阅读 · 0 评论 -
20200910_日常计划
20200910计划:1.把nsga3找到可以在mac上调试运行的方法。2.做运动原创 2020-09-10 13:58:09 · 101 阅读 · 0 评论