机器学习
文章平均质量分 67
万德1010
这个作者很懒,什么都没留下…
展开
-
(斯坦福机器学习课程笔记)牛顿法算法学习
代码均使用PYTHON3.x牛顿法算法复杂些,作以下笔记,免忘。下图(来自http://www.myexception.cn/cloud/1987100.html,侵删) 为了找到 f(x)f(x)取极值的点,即,牛顿法的思路是: 1、牛顿法只是求f(x)=0f(x)=0的根!!!!!!!(x可以是向量) 2、初始化一个x0x_0点,在x=x0x=x_0的条件下做曲线的切线f(x原创 2016-12-20 19:18:05 · 4285 阅读 · 0 评论 -
(斯坦福机器学习笔记)支持向量机
有了前4篇笔记中的对偶问题,拉格朗日函数,核方法的知识,就可以学习支持向量机的算法了。首先要做一个改变写法的声明。yy现在取{−1,1}{\{-1,1\}}。 对于一个线性可分的问题,用y=wTx+by=w^Tx+b作为分隔面,将两类样本分开。 定义函数间隔li=yi(wTxi+b)l^{i}=y^{i}(w^Tx^{i}+b),ii表示学习样本的序号。 定义函数间距l=minl=\mi原创 2017-02-04 10:26:35 · 386 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)EM算法
=========================JENSEN不等式======================== 若f(x)f(x)是凸函数,即f″(x)=0f^{''}(x)=0,则f(E[x])≥E[f(x)]f(E[x])\geq E[f(x)],当E[x]=xE[x]=x时,取等号。若f(x)f(x)是凹函数,不等号反向。 该不等式有直观的几何理解,引用网上的图(http://wik原创 2017-03-06 09:12:24 · 972 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)混合高斯模型,朴素贝叶斯,混合朴素贝叶斯模型,因子分析
==============================混合高斯模型========================== 混合高斯模型是一个无监督的聚类算法,他认为各个类别的样本都分别服从高斯分布。因此隐变量依然为zjiz_i^j,模型的参数有μ\mu,ϕ\phi,σ\sigma,其中σ\sigma是协方差矩阵。 那么引入EM算法,得到 E步骤: Qi(zji)=P(zji | xi;原创 2017-03-06 11:27:10 · 2235 阅读 · 0 评论 -
斯坦福CS231n(视觉识别卷积神经网络)课程学习笔记
本文对重点知识做记录,加深记忆以及备忘 中文链接https://zhuanlan.zhihu.com/p/21930884?refer=intelligentunit常用的激活函数:Sigmoid Tanh ReLU(最常使用) Leaky ReLU Maxout数据的预处理一般对数据归一化处理,先进行零中心化,即对于每个特征,将所有数据减去均值。再归一化,即对于每个特征,将所有数据除以特原创 2017-03-31 15:50:49 · 2248 阅读 · 0 评论 -
DQN调整超参数体会
接上篇 (Deep Reinforcement Learning with Double Q-learning, H. van Hasselt et al., arXiv, 2015)练习DQN有很多超参数,主要有:经验回放集合尺寸,神经网络结构,GAMMA值,学习率,e_greedy值和正负回报值。如此多的超参数,很难调好,必须认真体会总结。=======================经验回放原创 2017-05-30 15:20:32 · 22215 阅读 · 6 评论 -
(斯坦福机器学习课程笔记)马尔可夫决策
马尔可夫决策内容较多,此学习笔记仅在重要点作简要记录备忘,逻辑性不强。如要重新学习马尔可夫决策,此学习笔记可能不适合,请见谅。马尔可夫决策模型有5个参数;A,S,Psa,γ,R(s,a)A,S,P_{sa},\gamma,R(s,a)其中: -A表示动作集合 -S表示状态集合 -γ\gamma表示折损因子 -PsaP_{sa}表示在状态ss采取a行动后,下一状态是状态集合S里各个状态的原创 2017-03-30 15:46:25 · 2192 阅读 · 0 评论 -
重要性采样
有下面一个问题:一个工厂里面,工资有三档,低,中,高,分别为100块,200块,300块。其中拿低档工资的工人占60%,拿中档工资的工人占30%,拿高档工资的工人10%人。求该工厂工人工资的期望值。一个解决方法是蒙特卡罗估计。即随机的对该厂工人构造采样,求均值,结果随着采样数量增加会收敛该式0.6N∗100+0.3N∗200+0.1N∗300N\frac{0.6N*100+0.3N*200+0.1N原创 2017-05-30 16:39:30 · 4038 阅读 · 0 评论 -
强化学习知识梳理
该文是简单的知识点梳理,不能作为学习资料,请谅解=================强化学习的分类==================== 强化学习可以分为两类:有模型的,以及无模型的 有模型的强化学习是指我们拥有环境的完美知识,即s(我们知道所有的状态),r(所有状态对应的回报),p(s|a)(我们知道对于任意的状态s,采取任意动作a后,我们所在的新的状态的概率p(s|a)p(s|a))无模型的原创 2017-04-14 12:34:17 · 2134 阅读 · 0 评论 -
(Deep Reinforcement Learning with Double Q-learning, H. van Hasselt et al., arXiv, 2015)(dqn)练习
代码使用python 2.x版本 ,tensorflow 使用1.1(cpu)版本论文地址:https://arxiv.org/abs/1509.06461===============第一个文件 replay_memory.py================================import numpy as npMEMORYSIZE = 60000class Replay_mem原创 2017-05-23 17:01:25 · 1977 阅读 · 0 评论 -
Continuous control with deep reinforcement learning(DDPG,深度确定策略梯度)练习
深度确定策略梯度,论文在这: http://xueshu.baidu.com/s?wd=paperuri%3A%283752bdb69e8a3f4849ecba38b2b0168f%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Fwww.oalib.com%2Fpaper%2F4051743&ie=ut原创 2017-06-26 20:27:59 · 2373 阅读 · 2 评论 -
(斯坦福机器学习笔记)支持向量机之核方法
对于线性不可分的数据,从低维度映射到高维度空间,有可能变为线性可分,如: 上图红点和蓝点是线性不可分的,我们将四个点执行(x,y)->(x*x,y*y,1.414*x*y)映射,该数据变为线性可分,如下图: 代码如下(python3.x):import matplotlib.pyplot as plt#import numpy as npfrom mpl_toolkits.mplot3d原创 2017-02-03 09:01:12 · 479 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)支持向量机之拉格朗日函数的对偶问题
用拉格朗日函数求解最优化问题时也可以先找到其对偶问题再求解对于无等式约束的问题: minxf(x)\min\limits_{x} \quad f(x) s.t. gj(x)≤0s.t.\ \ g_j(x)\leq0 构造拉格朗日函数: L(x,μ)=f(x)+μjgj(x)L(x,\mu)=f(x)+\mu_jg_j(x)========================下面是一些推到过程=原创 2017-01-29 15:36:02 · 534 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)局部加权线性回归练习
题目如下import numpy as npimport randomimport matplotlib.pyplot as pltF64='float64'def gen_sin_dot_sample(num_point): x=np.linspace(0,10,num_point) y=np.sin(x)+np.random.random(num_point)*0.05原创 2016-12-14 15:01:25 · 609 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)多项式回归练习
代码使用python3.x题目如下(自己拍脑壳出的)import numpy as npimport randomimport matplotlib.pyplot as pltF64='float64'def gen_sin_dot_sample(num_point): x=np.linspace(0,10,num_point) y=np.sin(x)+np.random.r原创 2016-12-13 22:40:16 · 729 阅读 · 0 评论 -
(斯坦福机器学习笔记)线性回归练习
代码均使用python3.x题目是:import numpy as npimport randomimport matplotlib.pyplot as pltF64 = 'float64'def gen_linear_dot_sample(num_point): x = list(range(num_point)) for i in range(num_point):原创 2016-12-12 22:13:33 · 681 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)用广义线性模型推导softmax
多项式分布:P(y;ϕ1,ϕ2,ϕ3......ϕk)P(y;\phi_1,\phi_2,\phi_3......\phi_k) 定义示性函数1{bool式子}1 \{ bool式子\},当bool式子为真,示性函数为1,反之为0. 上式等于:∏i=1kϕ1{y=i}i=∏i=1k−1ϕ1{y=i}iϕ1{y=k}k\prod_{i=1}^{k}\phi_i^{1\{y=i\}}=\prod_原创 2017-01-07 17:18:57 · 346 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)用广义线性模型推导逻辑回归模型
广义线性模型的公式是 P(y;η)=b(y)exp(ηTT(y)−a(η))P(y;\eta)=b(y)exp(\eta ^TT(y)-a(\eta)) 其中η\eta是自然参数,η=θTx\eta =\theta ^Tx,T(y)T(y)是充分统计量。P(y;η)P(y;\eta)服从指数分布。1、推导逻辑回归公式 逻辑回归公式是从伯努利分布来的 P(y;ϕ)=ϕy(1−ϕ)1−y=原创 2016-12-23 10:54:49 · 562 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)VC维,交叉检验和特征选择
====================VC维================= 上一节课通过hoeffding不等式得出的经验风险最小化及其推论,是基于模型集合是有限的这一假设的。显然的,一般情况下模型集合是无限的(因为模型的参数取值是连续的)。当模型集合数量K是无限的,有以下两个结论。1、因为计算机的浮点数的取值是离散的,如64位的浮点数,要用64位bit来表示,那么64位浮点数的取值可能性只原创 2017-02-09 21:30:07 · 885 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)正则化和机器学习应用的建议
===================================正则化======================= 记得在logistic回归那一节课中,当时我对取似然函数L(θ)=∏P(yi|xI;θ)L(\theta)=\prod P(y_i|x_I;\theta)这一步是不理解的。因为我觉得优化函数应该是这样的:maxθP(θ|x,y)\max\limits_\theta P(\th原创 2017-02-10 08:32:29 · 426 阅读 · 0 评论 -
(斯坦福机器学习笔记)之经验风险最小化
经验风险最小化这节课的内容全是算法,最终推导出了一个可供我们定性分析模型复杂度和所需最少训练样本数的关系的结论。 首先定义ϵ̂ (h)\hat{\epsilon}(h)定义为m个样本的平均误差,又叫训练误差,即ϵ̂ (hθ)=1m∑i=1kI{hθ(xi)≠yi}\hat{\epsilon}(h_{\theta})=\frac{1}{m}\sum\limits_{i=1}^{k}I\{h_{\th原创 2017-02-07 10:10:55 · 1577 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)支持向量机之对偶问题
每一个线性规划问题都有与之对应的一个对偶问题,如:minx,yx+3ymin_{x,y} \quad x+3y s.t.x+y≥2s.t.\quad x+y\geq2 x,y≥0x,y\geq0可以这样找到对偶问题:a(x+y)≥2aa(x+y)\geq2a a(x+y)+bx+cy≥2aa,b,c≥0a(x+y)+bx+cy\geq2a\quad a,b,c\geq0 (a+b)x+(a原创 2017-01-09 09:22:57 · 374 阅读 · 0 评论 -
(斯坦福机器学习课程笔记)支持向量机之拉格朗日函数
对于只有等式约束的问题,如: minf(x)min \quad f(x) s.t.hi(x)=0s.t. \quad h_i(x)=0 用拉格朗日函数优化求解的方法是 构造拉格朗日函数 L(x,λi)=f(x)+∑ki=1λihi(x)L(x,\lambda_i)=f(x)+\sum_{i=1}^k \lambda_ih_i(x) 用条件 ∂L∂x=0\frac{\partial L}原创 2017-01-29 10:51:18 · 430 阅读 · 0 评论 -
python知识备忘集合(持续更新)
======================deque========================================= 强化学习的experience replay 模块, 之前考虑到运行的速度,我一直用numpy数组实现,但用起来并不方便,代码也不简洁。用deque必然方便多了,但运行速度怎样?试过才知道。from collections import dequeimport原创 2017-06-14 09:49:59 · 402 阅读 · 0 评论