自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 资源 (18)
  • 问答 (4)
  • 收藏
  • 关注

原创 Matlab随机生成元素和为K的向量

随机生成一个1×n1\times n的向量,且所有元素和为1。a = rand(1,10)0.2362 0.1194 0.6073 0.4501 0.4587 0.6619 0.7703 0.3502 0.6620 0.4162b = a./sum(a)0.0499 0.0252 0.1283 0.0951 0.096

2017-09-30 16:26:54 2051

原创 拉格朗日乘数法(Lagrange multiplier)

先摆公式,再说推导。求二元函数z=f(x,y)z=f(x,y)在条件φ(x,y)=0下的极值。\varphi(x,y)=0下的极值。(1)作Lagrange函数F(x,y,λ)=f(x,y)+λφ(x,y);F(x,y,\lambda)=f(x,y)+\lambda\varphi(x,y);(2)求F(x,y,λ)F(x,y,\lambda)的驻点(x0,y0,λ0)(x_0,y_0,\lambda

2017-09-29 19:25:11 36775 5

原创 一元隐函数及其求导

在说到隐函数(Implicit function)之前,先回想一下显函数(Explicit function).0.显函数(Explicit function)解析式中明显地用一个变量的代数式表示另一个变量时,称为显函数。即总能写成y=f(x)y=f(x)的形式。 1.隐函数(Implicit function)如果方程F(x,y)=0F(x,y)=0能确定yy是xx的函数,那么称这种方式表示的函数

2017-09-29 10:55:12 11409

原创 K-Means算法(实例)

K-Means算法实例:本文的是上一篇的实例部分以下代码均是在Matlab中实现。1.初始化中心点function centroids = kMeansInitCentroids(X, K)centroids = zeros(K, size(X, 2));% 初始化centroids为一个K by n 的矩阵m = size(X,1);rands = randperm(m,K);% 从1到m中随

2017-09-28 10:37:36 3206

原创 K-Means算法(思想)

K-Means算法的思想:第一步:寻找最近的中心点在给定的数据集上随机选取K(K已知)个点(向量)作为数据集上的K个中心(也就代表K个类别),然后依次遍历每一条数据,分别计算其与K个中心的距离,选择与之距离最近的点作为该数据所属的类别。这样一次遍历完之后,数据集中的所有点都被划入了其应该所属的类别里面(尽管有划错的)。第二步:重新计算中心对于每一个类别来说,里面都有若干个点。由于之前的中心点事随机选

2017-09-28 10:05:03 2615

原创 神经网络训练实例(手写体识别)

本例子参考的Andrew Ng机器学习第五周的课后作业,只是在原来的基础上自己从新梳理了整个训练过程的关键部分。源码,戳此处我们照着上一篇文章中的步骤,一步步来做。先对该网络做一个说明:网络一共有三层,其中S1=400,S2=25,S3=10S_1=400,S_2=25,S_3=10;参数维度为Θ125×401,Θ210×26\Theta^1_{25\times401},\Theta^2_{10\t

2017-09-24 13:45:18 1173

原创 norm(范数)、bsxfun()用法

1.norm(X)如果x是一个向量,那么norm(x)就等于x的模长。||X||=x21+x22+⋯+x2n−−−−−−−−−−−−−−√;X={x1,x2⋯xn}||X||=\sqrt{x_1^2+x^2_2+\cdots+x^2_n};X=\{x_1,x_2\cdots x_n\}>> x = [3,4]>> norm(x)>> ans = 52.bsxfunC = bsx

2017-09-24 08:20:38 1894

原创 Matlab中如何使函数作为参数传递

在此之前,先看看如何调用函数:1.函数的调用下面的例子将在call.m脚本中,调用写在fun.m中的函数fun(a,b,c);实现a,b,c三个数相加,然后返回;%%fun.mfunction [ output ] = fun(a,b,c )output = a + b + c;end下面进行调用 % call.ms = 0;a = 1;b = 2;c = 3;s = fun(a,

2017-09-23 18:54:33 36720 3

原创 斯坦福机器学习第五周(如何训练神经网络)

上一周Andrew Ng 介绍如何应用神经网络来识别手写体时,其网络已经是训练好的。也就是说整个网络的参数Θ(i)\Theta^{(i)}是已知的,而这一周的主要内容就是如何来训练一个神经网络,换句话说就是如何找到参数Θ\Theta.当然,采用的方法依旧是梯度下降或者fminunc等方法。但是使用这些方法的前提是给出代价函数J(Θ),以及代价函数关于每参数θ的梯度,即∂∂θlijJ(Θ)J(\The

2017-09-23 16:03:32 2273

原创 关于反向传播算法中几个公式的推导

参考自资料,戳此处J(W,b;x,y)=12||hW,b(x)−y||2J(W,b;x,y)=\frac{1}{2}||h_{W,b}(x)-y||^2符号说明:lSlL=神经网络的某一层=第l层神经元的数目=神经网络的总层数\begin{align*}l&=神经网络的某一层\newlineS_l&=第l层神经元的数目\newlineL&=神经网络的总层数\end{align*} 如下图中

2017-09-19 21:16:13 1135 2

原创 微分与可微

一、微分的定义什么是微分? 先来看一个例子设有一个半径为r的金属圆片受热后其半径增加了Δr\Delta_r,求面积A的增量ΔA\Delta A A(r)ΔA=πr2=π(r+Δr)2−πr2=π[2rΔr+(Δr)2]=2rπΔr+π(Δr)2\begin{align*}A(r) &=\pi r^2\newline\\ \Delta A &=\pi(r+\Delta r)^2-\pi r^2

2017-09-16 16:34:05 2795

原创 怎么把数据集的输出值转换成只含有0,1的标签向量

举个例子:某神经网络有5个输出值,分别对应1-5每个数字的输出概率,先有数据集x(i)x^{(i)},其输出值为,y=⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢1223444⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥y=\begin{bmatrix}1\\2\\2\\3\\4\\4\\4\\\end{bmatrix}。但是我们在神经网络中计算代价函数的时候需要将其转换成对应的标签值(即,若x(i)的预期输出值为3,则y3=⎡⎣⎢⎢

2017-09-15 19:29:32 4439 4

原创 神经网络的代价函数到底怎么在算

下面是就是神经网络中代价函数J(Θ)J(\Theta)的表达式,看起来还是稍微有点复杂。这个表达式到底在计算什么?下面我们先用一个简单的例子来分开一步步计算一下。J(Θ)=−1m∑i=1m∑k=1K[y(i)klog((hΘ(x(i)))k)+(1−y(i)k)log(1−(hΘ(x(i)))k)]+λ2m∑l=1L−1∑i=1sl∑j=1sl+1(Θ(l)j,i)2 J(\Theta) = - \

2017-09-14 13:59:21 5261 12

翻译 图解微积分:反向传播

原文链接戳此处 Introduction Backpropagation is the key algorithm that makes training deep models computationally tractable. For modern neural networks, it can make training with gradient descent as...

2017-09-11 10:02:33 2060

翻译 利用反向传播训练多层神经网络的原理

原文链接戳此处Principles of training multi-layer neural network using backpropagation The project describes teaching process of multi-layer neural network employing backpropagation algorithm. To illu...

2017-09-09 20:09:43 1472

原创 梯度(Gradient vectors)

梯度(Gradient vectors)我们知道方向导数讨论的是曲面上任意一点沿着任一方向变化的速率,即方向导数是一个值;而梯度讨论的是其速率变化最快的方向,即梯度是一个向量。∂f∂l⃗ ={∂f∂x,∂f∂y}⋅{cosα,cosβ}=gradf⋅l0→=|gradf|⋅|l0→|⋅cosθ=|gradf|⋅1⋅cosθ=|gradf|⋅cosθ\begin{align*}\frac{\part

2017-09-08 21:21:59 4580

原创 方向导数(Directional derivatives)

方向导数(Directional Derivatives)提到方向导数,我们先来回顾一下导数(Derivative)和偏导数(Partial Derivative)的几何意义。导数是二维平面中,曲线上某一点沿着x轴方向变化的速率,即函数f(x)f(x)在该点的斜率;偏导数是在三维空间中,曲面上某一点沿着x轴方向或y轴方向变化的速率,即∂f∂x是函数f(x,y)\frac{\partial f}{

2017-09-08 20:31:51 51259

神经网络手写体识别

斯坦福机器学习第五章,课后练习,神经网络手写体识别,实例源码。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

2017-09-24

神经网络与深度学习

随着AlphaGo与李世石大战的落幕,人工智能成为话题焦点。AlphaGo背后的工作原理'深度学习'也跳入大众的视野。什么是深度学习,什么是神经网络,为何一段程序在精密的围棋大赛中可以大获全胜?人工智终将会取代人类智慧吗?, 本书结合日常生活中的寻常小事,生动形象地阐述了神经网络与深度学习的基本概念、原理和实践,案例丰富,深入浅出。对于正在进入人工智能时代的我们,这些内容无疑可以帮助我们更好地理解人工智能的原理,丰富我们对人类自身的认识,并启发我们对人机智能之争更深一层的思考与探索。, 《神经网络与深度学习》是一本介绍神经网络和深度学习算法基本原理及相关实例的书籍,它不是教科书,作者已尽量把公式减少到最少,以适应绝大部分人的阅读基础和知识储备。《神经网络与深度学习》涵盖了神经网络的研究历史、基础原理、深度学习中的自编码器、深度信念网络、卷积神经网络等,这些算法都已在很多行业发挥了价值。, 《神经网络与深度学习》适合有志于从事深度学习行业的,或想了解深度学习到底是什么的,或是有一定机器学习基础的朋友阅读。

2017-09-24

deeplearning

国外知名学者Michael Nielsen's所作笔记,Neural Network and Deep Learning;国外知名学者Michael Nielsen's所作笔记,Neural Network and Deep Learning

2017-09-10

machine learning

machine learning

2017-07-09

逻辑回归模型实例

逻辑回归模型实例

2017-07-01

binaryClassification

binaryClassification

2017-06-25

斯坦福机器学习第一次练习

斯坦福机器学习第一次练习

2017-06-22

多变量的线性回归.zip

多变量的线性回归

2017-06-21

oneVariable.zip

线性回归模型实例

2017-06-21

斯坦福机器学习前三周概念总结

斯坦福机器学习前三周概念总结

2017-06-19

斯坦福机器学习前三周概念总结.pdf

斯坦福机器学习前三周概念总结

2017-06-19

gmp用户手册

linux gmp原版英文用户手册gmp大数库

2015-12-20

makefile模版

Linux 下的Makefile(二)makefile模版

2015-12-15

test1.tar.gz

makefile Linux 下的Makefile(二)

2015-12-15

gmp库中文指导书

gmp库中文指导书,里面有安装方法,和基本的函数使用方法

2015-12-12

gmp-4.1.4.tar.gz

gmp-4.1.4.tar.gz大数计算库

2015-12-12

Understand-4.0.813-Linux-64bit.tar.gz

由于CSDN对上传文件大小的限制,所以放到了百度网盘里面。里面有分享链接和具体使用方法

2015-12-03

网络工程设计与系统集成(第三版)习题答案.pdf

网络工程设计与系统集成(第三版)习题答案.pdf 人民邮电出版社

2015-11-30

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除