![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 61
蒹葭杰克
三天打鱼两条晒网,那么永远是菜鸡!
展开
-
手推模型之逻辑回归
关于逻辑回归的文章有很多,但是关于前因后果逻辑和公式的推导的文章要不就是不全,要不就是错误连篇。所以在自己理清好它的清晰逻辑后,打算写出来,一是加深印象,二是供后来者参考学习。我们都知道逻辑回归的本质是以回归的方法去解决分类问题,它是基于线性回归的。所以理解逻辑回归的前提,你要对多元线性回归有一个清晰的认识。说到线性回归,它的模型输出是连续的,可以笼统上认为是实数集,即 负无穷到正无...原创 2019-08-29 16:51:44 · 481 阅读 · 1 评论 -
机器学习基础回顾
序言 ----为了巩固一下之前的知识,最近重温了下西瓜书和统计学习方法,所以顺带写篇博客。一、什么是机器学习,即机器学习的定义。我认为可以从广义和狭义上去说,广义上说就是让机器具有类似人一样的学习能力,通过学习新知识来提高自己的能力,而非直接编程告诉机器每一步执行什么。狭义上说,就是让计算机基于数据构建(概率统计)模型,并通过该模型对未知数据进行预测与分析的方法。(西蒙曾...原创 2019-09-05 00:26:53 · 263 阅读 · 0 评论 -
python 十大实用技巧
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。1. for - else什么?不是 if 和 else ...转载 2019-11-30 22:31:00 · 1645 阅读 · 0 评论 -
深度学习之超参调节 、算法优化
首先介绍下,mini-batch gradient descent 在之前的讲解中,我们使用梯度下降来优化时,都是将所有training data全部输入,计算cost 这种算法叫做 batch gradient descent。这种算法只适用于训练集较小的情况。比如 训练集大小 m <2000时。通常情况下,深度学习的训练集都会很大,所有最常用的 mini-batch gradient...原创 2019-10-07 20:24:45 · 1719 阅读 · 0 评论 -
吴恩达deep learning笔记week4
话不多说,直接上图,满分100分完成深度学习第一课,对Neural Networks的细节有了更深的认识,手动一步步实现的感觉非常cool原创 2019-10-01 00:11:35 · 1550 阅读 · 0 评论 -
神经网络中激活函数的那些事
本篇博客内容主要来自andrew NG的课程。我们知道,当我们构建神经网络时,会再神经元上接个激活函数,我们下面详细讨论这个话题。首先介绍四种激活函数,它们分别是 Sigmoid tanh Relu Leaky_Relu上图中右侧的几何图形,从上到下分别对应,我们刚提到的四种激活函数。其中sigmoid最开始用于逻辑回归,我们知道它把输入映射到 0到1之间,我们在选择激活函数时,如果想要...原创 2019-09-28 11:18:50 · 248 阅读 · 0 评论 -
吴恩达deep learning笔记 Neural Networks week2
通过神经网络来解决二分类问题首先是任何和基本符号的说明我们要解决一个二分类问题,比如要识别一副图片是否是一只猫咪,所以输入是图片数据,输出是 1 or 0 代表是猫咪,不是猫咪(x,y)代表训练数据的一条数据对,x是输入数据,y是label即标记X是nxn_xnx维的,比如图片是 64 X 64 像素的图片,我们把它拉长成一个长的向量,向量的大小是 64 X 64 X 3 ,乘以3是因为...原创 2019-09-26 17:30:38 · 110 阅读 · 0 评论 -
吴恩达deep learning笔记 week1
为什么深度学习近些年来取得如此大的进步?我们从下图可以得到一些答案如图,横轴是数据量的大小,轴承是模型的表现我们可以看到,传统的机器学习模型在数据量较小时,随着数据量的增加,性能会快速得到提升,但是当数据量超过一定量时,再提升几乎对效果不再有任何提升。而神经网络模型,随着数据量的继续加大,当传统机器学习模型失效时,它的效果仍然在不断提升,而且模型越复杂,可接受的数据量越大。这从数据规模...原创 2019-09-26 15:18:50 · 128 阅读 · 0 评论 -
Sigmoid作为激活函数导致的梯度消失问题
首先,问题描述:当很多个使用sigmoid的Layers 加到神经网络中时,损失函数的梯度会接近0,这会导致 network难以训练。因为我们使用梯度乘以学习率来更新权值参数的。那么为什么呢?向sigmoid这样的激活函数,它把输入从一个大的空间压缩到一个只有0到1的范围内的很小的空间,作为下一层的输入。因此在输入层一个大的改变,通过sigmoid,最终到输出只有一个小的改变,也就是说导数变...原创 2019-09-24 16:58:03 · 15143 阅读 · 5 评论 -
常用的相似度计算方法原理及实现
版权声明:本文为博主原创文章,遵循版权协议,转载请附上原文出处链接和本声明。 本文链接:ht...转载 2019-09-16 23:16:09 · 1026 阅读 · 0 评论 -
pandas 之unique()函数与nunique()函数区别
很多功能函数自己试一试就全知道了,开始看别人的代码一直不太清楚两者的区别,总是模糊的以为它俩是一样的,是获取唯一值。其实从名字就能看出区别:unique()是以 数组形式(numpy.ndarray)返回列的所有唯一值(特征的所有唯一值)nunique()Return number of unique elements in the object.即返回的是唯一值的个数例如:...原创 2019-06-23 13:50:10 · 93063 阅读 · 6 评论 -
pandas 之切割 cut 与 qcut 功能与区别
一、功能:两者功能相似,都是将一个Series切割成若干个分组api 可以看官网详细介绍,大致如下:pandas.qcut(x,q,labels=None,retbins=False,precision=3,duplicates='raise')pandas.cut(x, bins, right=True, labels=None, retbins=False, prec...原创 2019-05-26 22:25:14 · 1330 阅读 · 0 评论 -
数据可视化之箱线图(boxplot)
图的类型有很多,常见的有折线图(plot或kind='line')、散点图(scatter)、条线图(或叫柱状图 bar)、直方图(histplot)、箱线图(boxplot) 区域块图(areaplot)、饼状图(pie)等另外画图的常用工具主要有两个即 matplotlib 和 seaborn 这两个通常也会结合使用。个人感觉简单的画图可以用 matplotlib的入门api ,...原创 2019-05-24 11:47:53 · 7068 阅读 · 0 评论