自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

麦地与诗人

读书不是为了雄辩和驳斥,也不是为了轻信和盲从,而是为了思考和权衡.

  • 博客(30)
  • 收藏
  • 关注

原创 怎样理解“全连接”和“局部连接”

这是看了张玉宏的《深度学习之美》做的笔记!这本书写得真的是接地气,通俗易懂,有趣生动!卷积层的全连接在 CIFAR-10 训练集中,所有图片的大小都只有32x32x332x32x332x32x3,即32像 素宽, 32像素高, RGE:(红、 绿、蓝) 3 色通道。 对于计算机而言,每张图片都是一个32×32×332×32×332×32×3的数值矩阵。按照全连接的前馈神经网络的处理模式,在输...

2019-06-30 15:37:05 7980 1

原创 ”二元学习”的方法论

这是在张玉宏的《深度学习之美》里看到的,觉得很有道理,作为一名机器学习方向的研究生,有那么多要看的论文,那么多要学的算法,学习方法真的很重要!严伯钧老师曾说,如果你没有太多精力,但又想快速建 立对一个新领域的感觉,那么最好的办法就是使用“二元学习法”。 具体来说,就是找到两位这个领域的代表性人物,最好是针锋相对的代表人物,高手对决,精彩就会纷呈。比如,在古典音乐领域,听到莫扎特的音乐,就该去找...

2019-06-30 15:08:27 476

原创 深度学习框架TensorFlow取名由来

为什么要取这么一个名字呢?这自然也是有讲究的 。Tensor Flow的命名源于其运行原理 “Tensor”的本意是“张量”,“张量”通常表示多维矩阵。在深度学习项目中,数据大多都高于二维,所以利用深度学习处理的数据的核心特征来命名,是有意义的。 “Flow”的本意就是“流动”,它意味着基于数据流图的计算。 合在一起, “TensorFlow”的意思就是,张量从数据流图的一端流动到另一端的计算过...

2019-06-30 14:53:04 1622

原创 深度学习框架比较

摘录自张玉宏的《深度学习之美》,作为自己的学习笔记,这样就能对个个框架的大致用法有了系统的了解!深度学习框架比较“工欲善其事,必先利其器。”事实上,适用于深度学习的“器”有很多,如 Theano、 Keras、 Caffe 及 Pytorch 等,它们各有特色。 下面我们对这几款比较流行的深度学习框架分别给予简单 的介绍,以期给读者提供一个宏观的认知。1. TheanoTheano 是一个...

2019-06-29 16:57:06 858

转载 到底什么是深度学习?

原文地址【深度学习之美】一入侯门“深”似海,深度学习深几许(入门系列之一)https://yq.aliyun.com/articles/86580什么是学习?说到“深度学习”,追根溯源,我们需要先知道什么是“学习”。著名学者赫伯特 ·西蒙教授( Herbert Simon, 1975 年图灵奖获得者、 1978 年诺贝尔经济学 奖获得者)曾对“学习”下过一个定义:“如果一个系统,能够通过执行...

2019-06-29 15:32:12 1937

原创 从机器学习谈起

浅显易懂的一篇文章,将机器学习娓娓道来。原文:https://www.cnblogs.com/subconscious/p/4107357.html

2019-06-26 21:44:03 168

原创 理解“卷积”,理解“卷积神经网络”

图像分类是指,向机器输入一张图片,然后机器告诉我们这张图片的类别(一只猫,一条狗等等),或者如果它不确定的话,它会告诉我们属于某个类别的可能性(很可能是条狗但是我不太确定)。对我们人类来说,这件事情简单的不能再简单了,从出生起,我们就可以很快地识别周围的物体是什么。当我们看到一个场景,我们总能快速地识别出所有物体,甚至是下意识的,没有经过有意的思考。但这种能力,机器并不具有。电脑和人看到的图片...

2019-06-24 17:20:53 594

原创 PermissionError: [WinError 5] 拒绝访问。: ‘c:\\programdata\\anaconda3\\lib\\site-packages\\pip-18.0.dist-

一步解决哦!链接:https://blog.csdn.net/weixin_40161254/article/details/83073910

2019-06-20 10:20:38 16161 2

原创 自己动手用python写梯度下降

本来还想自己系统地整理一下梯度下降法,看到下面这篇文章写得这么清楚,决定还是把时间用在别的地方吧,写得真的特别详细!http://sofasofa.io/tutorials/python_gradient_descent/...

2019-06-19 20:46:30 351

原创 梯度下降法

0.在一元函数y=f(x)y=f(x)y=f(x)中,导数就是函数的变化率。dydx\frac{dy}{dx}dxdy​二元函数z=f(x,y)z=f(x,y)z=f(x,y),一个zzz对应一个xxx和一个yyy,那就有两个导数了,一个是zzz对xxx的导数,一个是zzz对yyy的导数,称之为偏导。[∂z∂x∂z∂y]\begin{bmatrix}{\frac{\partial z}{...

2019-06-19 16:10:51 357

原创 感知机(Perceptron algorithm) Python代码详解

1.import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets import make_blobsfrom sklearn.model_selection import train_test_splitnp.random.seed(123)% matplotlib inline2. DataSet...

2019-06-18 11:13:25 3204

原创 Python入门第一步

我觉得,开始学习一门编程时候,不仅仅是要去学习它的语法,而是在给你一段代码的时候,你能够对这段代码的主要结构在心里面有一个大致的框架,也就是你要知道这一块是干什么的,那一块又是干什么的,然后再一块一块的详细去看代码的具体语句。一、从对象到类1.对象是在应用程序中使用的、组合成一个单一的实体的数据。例如,如果编写一个程序使用汽车,那么将会创建一个Car对象,其中包含了一些汽车的信息,如车...

2019-06-18 10:32:09 257

原创 图解CNN

https://www.jianshu.com/p/fe428f0b32c1Softmax函数或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量 “压缩”到另一个K维实向量 σ(z)\sigma(z)σ(z)中,使得每一个元素的范围都在(0,1)(0,1)(0,1)之间,并且所有元素的和为1。该函数的形式通常按下面的式子给出:σ(z)=ezj∑k=1kezk\si...

2019-06-17 21:28:39 755

原创 数据预处理

数据清理异常数据处理异常数据也称离群点,指采集的数据中,个别值的数据明显偏离其余的观测值。例如,测量小学五年级学生的身高数据,其中一部分数据如下:(1.35,1.40,1.42,1.38,1.43,1.40)(1.35,1.40,1.42,1.38,1.43,1.40)(1.35,1.40,1.42,1.38,1.43,1.40)上面这组数据符合小学五年级学生的身高。但是,如果数据中存...

2019-06-17 09:34:40 553

原创 理解L1正则化和L2正则化

曲线1,不能很好地拟合数据,这是高偏差(high bias)的情况,我们称为“欠拟合”(underfitting);曲线3,似乎完美地拟合了我们地数据,方差较高(high variance),数据过度拟合(overfitting);在两者之间,可能还有一些像曲线2这样的,复杂程度适中,数据拟合适度的分类器,这个数据拟合看起来更加合理,我们称之为“适度拟合”(just right).引入正则...

2019-06-14 16:41:25 536

原创 两个求和符号相乘

在机器学习中,经常会遇到有含有两个求和符号的公式,如,∑i=1M∑j=1N\sum^M_{i=1} \sum^N_{j=1}∑i=1M​∑j=1N​,一开始,我总是不能够理解这是一种怎样的运算,后来看到下面的解释觉得自己顿悟:有两个∑\sum∑的时候就有两个变量,是一个不变的情况下另一个从头到尾改变,然后之前那个再变一下,第二个再从头到尾变,一直到第一个变量变到最后,把这个过程中的项加起来!...

2019-06-14 09:23:50 32035 8

原创 神经网络有哪些常用模型结构?

为了更好地展开对神经网络地学习,我总是让自己先去了解这个知识的整体脉络,然后再一步一步地对具体地知识点进行深入,下图摘自深度学习500问,很好的向我们展示了神经网络常用的模型结构!...

2019-06-10 17:06:54 3524

原创 (深度学习笔记 by Andrew Ng)机器学习策略

ML策略?我们从一个启发性的例子开始讲,假设你正在调试你的猫分类器,经过一段时间的调整,你的系统达到了90%准确率,但对你的应用程序来说还不够好,这时候,你可能有很多想法去改善你的系统,比如,Collect more dataCollect more diverse training setTrain algorithm longer with gradient decentTry A...

2019-06-06 20:44:12 182

原创 理解随机变量

随机变量在许多概率模型中试验结果是数值化的,例如,许多仪器的仪表的读数,以及股价等。也有其他一些例子中的试验结果不是数值化的,但是呢,这些试验结果是与某些数值相联系的。例如:连续抛掷一枚硬币共5次,在这个试验中,正面出现的次数是一个随机变量在两次抛掷一个骰子的试验中,下面的例子是随机变量:两次抛掷骰子得到的点数之和;两次抛掷骰子,得到的点数为6的次数在传输信号的实验中,传...

2019-06-06 10:28:09 18094 3

原创 概率论--伯努力

伯努力试验(Bernoulli experiment)伯努利试验(Bernoulli experiment)是在同样的条件下重复地、相互独立地进行的一种随机试验,其特点是该随机试验只有两种可能结果:发生或者不发生。我们假设该项试验独立重复地进行了nnn次,那么就称这一系列重复独立的随机试验为n重伯努利试验,或称为伯努利概型。单个伯努利试验是没有多大意义的,然而,当我们反复进行伯努利试验,去观...

2019-06-06 10:04:12 1822

原创 (深度学习笔记 by Andrew Ng)参数VS超参数(Parameters vs Hyperparameters)

什么是超参数?比如算法中的learning rate (学习率)、iterations(梯度下降法循环的数量)、LLL(隐藏层数目)、n[l]n^{[l]}n[l](隐藏层单元数目)、choice of activation function(激活函数的选择)都需要你来设置,这些数字实际上控制了最后的参数WWW和bbb的值,所以它们被称作超参数。实际上深度学习有很多不同的超参数,也有一些其他的...

2019-06-05 15:24:45 336

原创 (深度学习 by Andrew Ng)深度神经网络

0.神经网络注意,神经网络的层数是这么定义的:从左到右,由0开始定义,x1,x2,x3x_1,x_2,x_3x1​,x2​,x3​这层是第0层,这层右边边的隐藏层是第1层,由此类推。1.深度学习的符号定义上图是一个四层的神经网络,有三个隐藏层。我们可以看到,第一层(即左边数过去第二层,因为输入层是第0层)有5个神经元数目,第二层5个,第三层3个。我们用LLL表示层数,上图:L=4L=...

2019-06-05 10:31:50 408

原创 分类和聚类有什么区别?

简单地说,分类(Categorization or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。聚类是指事先没有“标签”而通过某种成团分析找出事物之间存在聚集性原因的过程。区别是,分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。聚类则没有事先预定的类别,类别数不确定。 聚类不需要人工标注...

2019-06-04 22:05:07 6517

原创 (深度学习 by Andrew Ng)激活函数(Activation functions)

1.sigmoid函数σ(z)=11+e−z\sigma(z)=\frac{1}{1+e^{-z}}σ(z)=1+e−z1​函数取值范围(0,1)(0,1)(0,1)用matlab画出sigmoid的函数图像:x=linspace(-10.0,10.0);y=1./(1.0+exp(-1.0*x));plot(x,y)2.tanh函数或叫做双曲正切函数,tanh=sinh...

2019-06-04 16:52:30 147

原创 (深度学习by Andrew Ng)第三周:浅层神经网络

用圆圈表示神经网络的计算单元:一个神经网络只是这样子做了好多次重复计算:我们先看其中一个节点:把以上式子向量化:hidden layer1:

2019-06-03 22:02:10 246

原创 寻找分类决策平面

如果我们有m个样本,每个样本对应于n维特征和一个二元类别输出,如下: (x1(0),x2(0),...xn(0),y0),(x1(1),x2(1),...xn(1),y1),...(x1(m),x2(m),...xn(m),ym)(x_1^{(0)},x_2^{(0)},...x_n^{(0)},y_0),(x_1^{(1)},x_2^{(1)},...x_n^{(1)},y_1),...(x_...

2019-06-02 21:46:03 950

转载 SVM和Softmax分类器比较

####参考:作者:啊噗不是阿婆主来源:CSDN原文:https://blog.csdn.net/weixin_38278334/article/details/830027481.SVM和Softmax分类器是最常用的两个分类器,Softmax的损失函数与SVM的损失函数不同。对于学习过二元逻辑回归分类器的读者来说,Softmax分类器就可以理解为逻辑回归分类器面对多个分类的一般化归纳...

2019-06-02 17:16:52 7000 4

原创 分类问题

1.k-近邻算法(k-NearestNeighbor,kNN)2.朴素贝叶斯朴素贝叶斯分类器(Naive Bayes Classifier,NBC )之所以称其为朴素,是因为整个形式化过程只做最原始,最简单的假设。3.支持向量机(Support Vector Machine,SVM)4.AdaBoost(Adaptive Boosting)Adaptive Boosting,自适应,它...

2019-06-02 16:55:24 673

转载 怎样更好的理解并记忆泰勒公式?

1.如下图,是一辆随意行驶的小车的轨迹曲线:物理学家觉得这段轨迹很有意思,也想开车走一段一摸一样的轨迹!既然想模仿刚才那辆车,那首先,应该保证初始位置一样,继续模仿,让车在初始位置的速度也一样,不满足,继续细化,这次保持位置、在初始位置处的速度一样的同时,保证在初始位置处车的加速度也一样,不满足,继续细化,这次保证初始位置、初始位置处的速度、初始位置处的加速度都一样,也保证初始位置...

2019-06-02 10:51:07 2372 2

原创 点积的形式,就一定能写成核函数么?

有些问题,如果不把它清晰的表述出来,就会一直有那种让人觉得不懂感到很难受的感觉。所以就像给自己写日记一样,想把思考过程中让自己感到费解的一些点,抠出来,放大,解决它!两个样本点积的形式,就一定能写成核函数么?在机器学习中,我们要用到内积运算。而在映射后的高维空间中,内积往往是很不好求解的。所以,我们能不能找到在低维空间中的某个运算,恰好等于高维空间中的内积运算呢?是不是理解成,即便我们没有将...

2019-06-02 09:17:09 502

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除