AI学习笔记
文章平均质量分 63
HeinSven
发表,是对技术最好的记忆。
展开
-
numpy的使用
import numpy as npnp.randomnumpy.random.normal(loc=0.0, scale=1.0, size=None)输出均值为0,标准差为1的一个随机值#产生的随机数服从标准正态分布0-1,2行4列矩阵np.random.randn(2,4)结果:[[-0.08302365 0.36937819 0.08568024 -1.5608...原创 2019-01-19 19:59:44 · 142 阅读 · 0 评论 -
《Python数据挖掘入门与实践》—— 学习笔记(一)
简介:1、Python开发平台IPython提供多种Python开发工具和开发环境,比标准解释器多出好多功能。2、IPython Notebook功能强大,可在Web浏览器中编写程序,可为代码添加样式,添加注释,显示运行结果,适合做数据分析。安装IPython:pip install ipython[all]运行:ipython3 notebook上述命令完成了主...原创 2019-02-07 00:45:00 · 503 阅读 · 0 评论 -
《Python数据挖掘入门与实践》—— 学习笔记(二)
scikit-learn库,实现了一系列数据挖掘算法,提供通用编程接口、标准化的测试和调参工具,便于用户尝试不同算法对其进行充分测试和查找最优参数值。本节目标:讲解数据挖掘通用框架的搭建方法。本节核心概念:估计器(Estimator):用于分类、聚类和回归分析。转换器(Transformer):用于数据预处理和数据转换。流水线(Pipeline):组合数据挖掘流程,便于再...原创 2019-02-11 19:35:40 · 455 阅读 · 0 评论 -
《机器学习实战》学习笔记(5、Logistic回归)
回归:若有一些数据点,用一条直线对这些点进行拟合的过程。训练分类器时的做法,寻找最佳拟合参数,使用最优化算法。准备数据,要求数据类型为数值型;训练算法,寻找最佳的分类回归系数。使用算法,输入数据,转化为结构化数值,基于回归系数,对这些数值进行回归计算,判定分类。基于Logistic回归和Sigmoid函数的分类:计算代价不高,但容易欠拟合,分类精度不高。Sigmoid函数,看起...原创 2019-07-15 21:58:23 · 192 阅读 · 0 评论 -
《机器学习实战》学习笔记(4、朴素贝叶斯)
朴素:因为整个形式化过程,只做最原始、最简单的假设。可利用Python的文本处理能力,将文档切分成词向量,然后利用词向量对文档进行分类。优点:数据少有效,可处理多类别。缺点:只适合,标称型数据。核心思想:选择具有最高概率的决策。使用朴素贝叶斯进行文档分类:在文档分类中,整个文档是实例,而电子邮件中的某些元素则构成特征。准备数据:可使用数值型或布尔型数据;分析数据:使用直...原创 2019-07-11 20:37:40 · 306 阅读 · 0 评论 -
《机器学习实战》学习笔记(3、决策树)
k-近邻算法,可以完成很多分类任务。但最大的缺点就是,无法给出数据的内在含义。决策树的主要优势在于,数据形式非常容易理解。决策树的一个重要任务,使用不熟悉的数据集合,并从中提取出一系列规则,在这些机器根据,数据集创建规则时,就是机器学习的过程。优点:计算复杂度低,输出结果易于理解,对中间值的缺失不敏感,可处理不相关特征数据。缺点:可能会产生过度匹配问题。适用于,数值型和标称型。...原创 2019-07-10 20:14:20 · 276 阅读 · 0 评论 -
《机器学习实战》学习笔记(2、k-近邻算法)
该算法采用:测量不同特征值之间的距离方法进行分类优点:精度高、对异常值不敏感、无数据输入假定。缺点:计算复杂度和空间复杂度都高。工作原理:存在样本训练集和对应的标签。输入没有标签的新数据后,将新数据的每个特征与,样本数据的对应特征进行比较,然后提取样本集中,特征最近邻的分类标签。一般选样本集中,前k个最相似的数据。k-近邻算法的一般流程:收集数据、准备数据(距离计算,最好是...原创 2019-07-03 23:50:18 · 271 阅读 · 0 评论 -
《生成对抗网络入门指南》学习笔记(一)
人工智能元年:2017-AlphaGo 击败了柯洁。图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。打造人工大脑,需要回答的三个问题:1)大脑如何运转——正在探索2)大脑的运行机制可否,拆分成差异性极低的可衡量单位——神经学家解答是,神经元3)是否有,其它人工产物可等价体现,这一单元粒度的价值或功能——信息学家解答是,可...原创 2019-05-05 18:43:39 · 945 阅读 · 0 评论 -
《生成对抗网络入门指南》学习笔记(五)
GAN的优化问题:训练GAN最大的问题:训练的不稳定性。理论上,应优先训练好判别器,但实际上,判别器训练地越好,生成器反而越难优化。真实数据的分布,通常是一个低维度流形。所谓流形,是指数据虽然分布在高维度空间里,但实际上数据并不具备高维度特性,而是存在于一个嵌入在高维度的低维度空间里。生成器要做的事情是,把一个低维度的空间Z映射到与真实数据相同的高维度空间上。我们希望...原创 2019-04-24 22:14:29 · 647 阅读 · 0 评论 -
六、TensorFlow实现Google Inception Net
简介:Google Inception Net首次出现在ILSVRC 2014的比赛中,并获得第一名。特点:1、控制了计算量和参数量的同时,获得了非常好的分类性能,有22层深。2、计算量只有15亿次浮点运算,同时只有500万的参数量。3、去除了最后的全连接层,用全局平均池化层(即将图片尺寸变为1x1)来取代它,防止过拟合。4、精心设计的Inception Module提高了参数...转载 2019-01-30 18:27:13 · 268 阅读 · 0 评论 -
六、TensorFlow实现AlexNet
简介:Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,它可算是LeNet的一种更深更宽的版本。包含的技术点:1、使用了ReLU作为CNN的激活函数。解决了Sigmoid在网络较深时的梯度弥散问题。2、使用Dropout随机忽略一部分神经元,以避免模型过拟合。在最后几个全连接层使用了Dropout。3、使用重叠的最大池化,避免平均池化的模糊化...转载 2019-01-23 03:24:24 · 183 阅读 · 0 评论 -
四、TensorFlow实现自编码器及多层感知机
多层感知机(多层神经网络)简介Softmax Regression线性模型,简单易用,但是拟合能力不强。隐含层:指除输入、输出层外,中间的那些层。隐含层越多,越容易拟合复杂函数,且隐含节点数目越少。深度学习的特点之一:层数越深,概念越抽象,需要背诵的知识点就越少。缺点,容易过拟合、参数难以调试、梯度弥散。过拟合:模型预测准确率在训练集上升高,但在测试集上反而下降了。解决...转载 2019-01-15 00:32:11 · 388 阅读 · 0 评论 -
六、TensorFlow实现VGGNet
VGGNet是牛津大学计算机视觉组和Google DeepMind一起研发的深度卷积神经网络。特点:1、反复堆叠3x3的小型卷积核和2x2的最大池化层。2、拥有16~19层深的卷积神经网络。3、拓展性强,迁移到其他图片数据上的泛化性好。4、常被用来提取图像特征。5、模型参数已开源,可在图像分类任务上进行再训练。 网络介绍:VGGNet拥有5段卷积,每段内有2~3个卷...转载 2019-01-18 03:58:43 · 221 阅读 · 0 评论