- 博客(17)
- 资源 (5)
- 收藏
- 关注
原创 《neural network and deep learning》题解——ch03 如何选择神经网络的超参数
将你的想法实现在 network2.py 中,运行这些实验和 3 回合(10 回合太多,基本上训练全部,所以改成 3)不提升终止策略比较对应的验证准确率和训练的回合数。cnt 记录不提升的次数,如达到max_try,就退出循环。对问题二中的代码进行稍微的修改,128 = 2 ^ 7。使用梯度下降来确定 η 的障碍在于,η 的最优解不是一个常数,随着迭代次数的增加,η 的最优解会越来越小。修改 network2.py 来实现提前终止,并让 n 回合不提升终止策略中的 n 称为可以设置的参数。
2017-08-31 15:59:31 1809 2
原创 《深度学习Ng》课程学习笔记01week1——深度学习概论
http://blog.csdn.net/u011239443/article/details/77719187课程地址:http://mooc.study.163.com/course/deeplearning_ai-2001281002#/info什么是神经网络如房屋价格预测问题:图中的圈圈代表神经元,神经元里面是ReLU激活函数 : max(0,x)。类似于这样的神经元,许许多多个,那就组成的
2017-08-30 17:11:12 847
转载 神经网络-激活函数对比
本博客仅为作者记录笔记之用,不免有很多细节不对之处。 还望各位看官能够见谅,欢迎批评指正。 更多相关博客请猛戳:http://blog.csdn.net/cyh_24 如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过
2017-08-30 11:02:01 1027
原创 《neural network and deep learning》题解——ch03 再看手写识别问题题解与源码分析
http://blog.csdn.net/u011239443/article/details/77649026完整代码:https://github.com/xiaoyesoso/neural-networks-and-deep-learning/blob/master/src/network2.py我们之前根据《neural network and deep learning》题解——ch02
2017-08-28 15:12:07 2886 2
原创 《机器学习技法》学习笔记11——GBDT
http://blog.csdn.net/u011239443/article/details/77435463Adaptive Boosted Decision Tree关于AdaBoost、提升树可先参阅:http://blog.csdn.net/u011239443/article/details/77294201 这里仅对其做一定的补充。 对提升决策树桩的模型中,我们对树的节点进行分隔时
2017-08-20 22:53:52 1347
原创 《机器学习实战》(十三)—— PCA
协方差矩阵统计学的基本概念协方差上面几个统计量看似已经描述的差不多了,但我们应该注意到,标准差和方差一般是用来描述一维数据的,但现实生活我们常常遇到含有多维数据的数据集,最简单的大家上学时免不了要统计多个学科的考试成绩。面对这样的数据集,我们当然可以按照每一维独立的计算其方差,但是通常我们还想了解更多,协方差就是这样一种用来度量两个随机变量关系的统计量,我们可以仿照方差的定义:来度量各个维度偏离其均
2017-08-18 09:55:50 2344 4
原创 《机器学习实战》(七)—— AdaBoost(提升树)
AdaBoost提升树例子将“身体”设为A,“业务”设为B,“潜力”设为C。对该题做大致的求解:这里我们只计算到了f2,相信读者也知道如何继续往下计算。这里特征的取值较少,所以直接使用是否等于某个取值来作为分支条件。实际中,可以设置是否大于或者小于等于某个阈值来作为分支条件。接下来我们就来看看如何实现提升树。实现# -*- coding: utf-8 -*-from numpy import *
2017-08-17 09:50:20 1387 1
原创 《deep learning》学习笔记(5)——机器学习基础
http://blog.csdn.net/u011239443/article/details/772021365.1 学习算法 学习算法:对于某类任务 T 和性能度量P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量 P 衡量的性能有所提升。5.1.1 任务 T 样本:我们从某些希望机器学习系统处理的对象或事件中收集到的已经量化的特征(f
2017-08-15 22:31:02 2354
转载 为什么对高斯分布的方差的极大似然估计是有偏的?
http://blog.csdn.net/qykshr/article/details/23273105本文要证明为什么对高斯分布的方差的极大似然估计是有偏的。同时,也说明为什么求样本方差时,分母是N-1而不是N。首先,明白两点,(1)极大似然法得到的高斯方差是什么形式(2)什么是有偏。(1)先说第一个问题,用极大似然估计得到的高斯方差是什么。假设有n个符合高斯独立同分布的观测值,我们要根据这
2017-08-15 19:09:05 8047 1
原创 《机器学习实战》(六)—— SVM(SMO算法)
关于SVM的讲解可以参阅《机器学习技法》的相关笔记:http://blog.csdn.net/u011239443/article/details/76572743。
2017-08-14 21:17:27 10733 7
转载 奇异值分解(SVD)
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。也可以加我的微博: @leftnot
2017-08-06 11:58:14 878
原创 《机器学习技法》学习笔记15——矩阵分解
http://blog.csdn.net/u011239443/article/details/76735871线性网络模型Netflix在2006年给出了一个数据集 (用户id,电影id,电影评分) 让我们来预测用户未评分的电影评分分数。 我们可以讲用户id进行二分向量编码,然后同意用户的电影评分组成一个向量,即得到:因为向量x只有一个值为1,所以模型可以变成:而对于某一个电影的预测评分可以
2017-08-05 21:22:32 2619
原创 《机器学习技法》学习笔记13——深度学习
http://blog.csdn.net/u011239443/article/details/76692801深度神经网络 浅层神经网络 深层神经网络 更加有效的训练 难以训练 更简单的结构选择 复杂的结构选择 更具有理论依据,但可能难以提取特征 更加武断的依据,简化特征提取 适合多项式组合比较明确的情况下 适合多项式组合复杂未知的情况下 深度学习面临的挑战
2017-08-04 19:55:10 903
原创 《机器学习技法》学习笔记12——神经网络
http://blog.csdn.net/u011239443/article/details/76680704动因单隐藏层神经网络:单隐藏层神经网络做“与”运算:但是单隐藏层神经网无法做异或运算:可以看到上面最右边的图,就算是映射到高维的空间中,依旧是线性不可分的。我们可以使用多层的神经网络来解决这个问题:神经网络假说神经网络基本上的模型为:由于阶梯函数不好求导优化;整个网络的激活函数都是线性函数
2017-08-04 13:48:38 1848 1
原创 《机器学习技法》学习笔记03——核SVM
http://blog.csdn.net/u011239443/article/details/76598872核技巧接着上篇博文的问题:我们先假定:则有: 于是我们就得到了核函数:那么我们就可以直接用核函数带入到原来的问题中,我们能计算出b:讲核函数代入gSVM=sign(∑SVindicesnwTzs+b)g_{SVM}=sign(\sum_{SV indices n}w^Tz_s+b)得:多
2017-08-02 21:35:41 941
原创 《机器学习技法》学习笔记02——对偶SVM
对偶SVM的目标如果是非线性SVM,那么问题变成了:zn是xn在d+1z_n是x_n在d+1高维空间映射所得到的值,于是就出现了困境:对偶SVM的目标就是:我们由拉格朗日乘子法得:因为yn(wTzn+b)>=1y_n(w^Tz_n+b)>=1 所以1−yn(wTzn+b)<=01-y_n(w^Tz_n+b)<=0 为了让符号不变,我们规定αn>=0α_n >=0 , 则αn(1−yn(wTzn
2017-08-02 12:26:56 849
原创 《机器学习技法》学习笔记01——线性SVM
http://blog.csdn.net/u011239443/article/details/76572743最大间距分离超平面胖的超平面具有更好的错误容忍性。我们目标就是找到能一个超平面,到各个点xnx_n到w最小的距离尽可能的大。而且w需要能正确划分,即 label yny_n 需要和计算出来的结果wTxnw^Tx_n同号。标准最大间距问题我们把wTxnw^Tx_n拆分:得到wTx+bw^Tx
2017-08-02 11:02:28 2020
SMP2020微博情绪分类技术评测数据集
2022-12-29
jblas-1.2.4-SNAPSHOT
2016-06-26
Spark机器学习文本处理数据集
2016-06-20
Spark机器学习推荐模型数据集
2016-06-18
Spark机器学习回归模型数据集
2016-06-15
Spark机器学习分类模型的数据集
2016-06-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人