自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

  • 博客(17)
  • 资源 (5)
  • 收藏
  • 关注

原创 《neural network and deep learning》题解——ch03 如何选择神经网络的超参数

将你的想法实现在 network2.py 中,运行这些实验和 3 回合(10 回合太多,基本上训练全部,所以改成 3)不提升终止策略比较对应的验证准确率和训练的回合数。cnt 记录不提升的次数,如达到max_try,就退出循环。对问题二中的代码进行稍微的修改,128 = 2 ^ 7。使用梯度下降来确定 η 的障碍在于,η 的最优解不是一个常数,随着迭代次数的增加,η 的最优解会越来越小。修改 network2.py 来实现提前终止,并让 n 回合不提升终止策略中的 n 称为可以设置的参数。

2017-08-31 15:59:31 1809 2

原创 《深度学习Ng》课程学习笔记01week1——深度学习概论

http://blog.csdn.net/u011239443/article/details/77719187课程地址:http://mooc.study.163.com/course/deeplearning_ai-2001281002#/info什么是神经网络如房屋价格预测问题:图中的圈圈代表神经元,神经元里面是ReLU激活函数 : max(0,x)。类似于这样的神经元,许许多多个,那就组成的

2017-08-30 17:11:12 847

转载 神经网络-激活函数对比

本博客仅为作者记录笔记之用,不免有很多细节不对之处。 还望各位看官能够见谅,欢迎批评指正。 更多相关博客请猛戳:http://blog.csdn.net/cyh_24 如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过

2017-08-30 11:02:01 1027

原创 《neural network and deep learning》题解——ch03 再看手写识别问题题解与源码分析

http://blog.csdn.net/u011239443/article/details/77649026完整代码:https://github.com/xiaoyesoso/neural-networks-and-deep-learning/blob/master/src/network2.py我们之前根据《neural network and deep learning》题解——ch02

2017-08-28 15:12:07 2886 2

原创 《机器学习技法》学习笔记11——GBDT

http://blog.csdn.net/u011239443/article/details/77435463Adaptive Boosted Decision Tree关于AdaBoost、提升树可先参阅:http://blog.csdn.net/u011239443/article/details/77294201 这里仅对其做一定的补充。 对提升决策树桩的模型中,我们对树的节点进行分隔时

2017-08-20 22:53:52 1347

原创 《机器学习实战》(十三)—— PCA

协方差矩阵统计学的基本概念协方差上面几个统计量看似已经描述的差不多了,但我们应该注意到,标准差和方差一般是用来描述一维数据的,但现实生活我们常常遇到含有多维数据的数据集,最简单的大家上学时免不了要统计多个学科的考试成绩。面对这样的数据集,我们当然可以按照每一维独立的计算其方差,但是通常我们还想了解更多,协方差就是这样一种用来度量两个随机变量关系的统计量,我们可以仿照方差的定义:来度量各个维度偏离其均

2017-08-18 09:55:50 2344 4

原创 《机器学习实战》(七)—— AdaBoost(提升树)

AdaBoost提升树例子将“身体”设为A,“业务”设为B,“潜力”设为C。对该题做大致的求解:这里我们只计算到了f2,相信读者也知道如何继续往下计算。这里特征的取值较少,所以直接使用是否等于某个取值来作为分支条件。实际中,可以设置是否大于或者小于等于某个阈值来作为分支条件。接下来我们就来看看如何实现提升树。实现# -*- coding: utf-8 -*-from numpy import *

2017-08-17 09:50:20 1387 1

原创 《deep learning》学习笔记(5)——机器学习基础

http://blog.csdn.net/u011239443/article/details/772021365.1 学习算法 学习算法:对于某类任务 T 和性能度量P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量 P 衡量的性能有所提升。5.1.1 任务 T 样本:我们从某些希望机器学习系统处理的对象或事件中收集到的已经量化的特征(f

2017-08-15 22:31:02 2353

转载 为什么对高斯分布的方差的极大似然估计是有偏的?

http://blog.csdn.net/qykshr/article/details/23273105本文要证明为什么对高斯分布的方差的极大似然估计是有偏的。同时,也说明为什么求样本方差时,分母是N-1而不是N。首先,明白两点,(1)极大似然法得到的高斯方差是什么形式(2)什么是有偏。(1)先说第一个问题,用极大似然估计得到的高斯方差是什么。假设有n个符合高斯独立同分布的观测值,我们要根据这

2017-08-15 19:09:05 8043 1

原创 《机器学习实战》(六)—— SVM(SMO算法)

关于SVM的讲解可以参阅《机器学习技法》的相关笔记:http://blog.csdn.net/u011239443/article/details/76572743。

2017-08-14 21:17:27 10733 7

转载 奇异值分解(SVD)

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 版权声明:    本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。也可以加我的微博: @leftnot

2017-08-06 11:58:14 878

原创 《机器学习技法》学习笔记15——矩阵分解

http://blog.csdn.net/u011239443/article/details/76735871线性网络模型Netflix在2006年给出了一个数据集 (用户id,电影id,电影评分) 让我们来预测用户未评分的电影评分分数。 我们可以讲用户id进行二分向量编码,然后同意用户的电影评分组成一个向量,即得到:因为向量x只有一个值为1,所以模型可以变成:而对于某一个电影的预测评分可以

2017-08-05 21:22:32 2618

原创 《机器学习技法》学习笔记13——深度学习

http://blog.csdn.net/u011239443/article/details/76692801深度神经网络 浅层神经网络 深层神经网络 更加有效的训练 难以训练 更简单的结构选择 复杂的结构选择 更具有理论依据,但可能难以提取特征 更加武断的依据,简化特征提取 适合多项式组合比较明确的情况下 适合多项式组合复杂未知的情况下 深度学习面临的挑战

2017-08-04 19:55:10 903

原创 《机器学习技法》学习笔记12——神经网络

http://blog.csdn.net/u011239443/article/details/76680704动因单隐藏层神经网络:单隐藏层神经网络做“与”运算:但是单隐藏层神经网无法做异或运算:可以看到上面最右边的图,就算是映射到高维的空间中,依旧是线性不可分的。我们可以使用多层的神经网络来解决这个问题:神经网络假说神经网络基本上的模型为:由于阶梯函数不好求导优化;整个网络的激活函数都是线性函数

2017-08-04 13:48:38 1848 1

原创 《机器学习技法》学习笔记03——核SVM

http://blog.csdn.net/u011239443/article/details/76598872核技巧接着上篇博文的问题:我们先假定:则有: 于是我们就得到了核函数:那么我们就可以直接用核函数带入到原来的问题中,我们能计算出b:讲核函数代入gSVM=sign(∑SVindicesnwTzs+b)g_{SVM}=sign(\sum_{SV indices n}w^Tz_s+b)得:多

2017-08-02 21:35:41 941

原创 《机器学习技法》学习笔记02——对偶SVM

对偶SVM的目标如果是非线性SVM,那么问题变成了:zn是xn在d+1z_n是x_n在d+1高维空间映射所得到的值,于是就出现了困境:对偶SVM的目标就是:我们由拉格朗日乘子法得:因为yn(wTzn+b)>=1y_n(w^Tz_n+b)>=1 所以1−yn(wTzn+b)<=01-y_n(w^Tz_n+b)<=0 为了让符号不变,我们规定αn>=0α_n >=0 , 则αn(1−yn(wTzn

2017-08-02 12:26:56 849

原创 《机器学习技法》学习笔记01——线性SVM

http://blog.csdn.net/u011239443/article/details/76572743最大间距分离超平面胖的超平面具有更好的错误容忍性。我们目标就是找到能一个超平面,到各个点xnx_n到w最小的距离尽可能的大。而且w需要能正确划分,即 label yny_n 需要和计算出来的结果wTxnw^Tx_n同号。标准最大间距问题我们把wTxnw^Tx_n拆分:得到wTx+bw^Tx

2017-08-02 11:02:28 2020

SMP2020微博情绪分类技术评测数据集

SMP2020微博情绪分类技术评测数据集 本次技术评测使用的标注数据集由哈尔滨工业大学社会计算与信息检索研究中心提供,原始数据源于新浪微博,由微热点大数据研究院提供,数据集分为两部分。     第一部分为通用微博数据集,该数据集内的微博内容是随机获取到微博内容,不针对特定的话题,覆盖的范围较广。     第二部分为疫情微博数据集,该数据集内的微博内容是在疫情期间使用相关关键字筛选获得的疫情微博,其内容与新冠疫情相关。     因此,本次评测训练集包含上述两类数据:通用微博训练数据和疫情微博训练数据,相对应的,测试集也分为通用微博测试集和疫情微博测试集。参赛成员可以同时使用两种训练数据集来训练模型。     每条微博被标注为以下六个类别之一:neutral(无情绪)、happy(积极)、angry(愤怒)、sad(悲伤)、fear(恐惧)、surprise(惊奇)。     通用微博训练数据集包括27,768条微博,验证集包含2,000条微博,测试数据集包含5,000条微博。     疫情微博训练数据集包括8,606条微博,验证集包含2,000条微博,测试数据集包含3,000

2022-12-29

jblas-1.2.4-SNAPSHOT

里MLlib库需要依赖[jblas线性代数库](http://jblas.org/),如果大家编译jblas的jar包有问题,可以获取。把jar包加到lib文件夹后,记得在spark-env.sh添加配置

2016-06-26

Spark机器学习文本处理数据集

为了说明概念,我们将使用一个非常有名的数据集,叫作20 Newsgroups;这个数据集一般用来做文本分类。这是一个由20个不同主题的新闻组消息组成的集合,有很多种不同的数据格式。对于我们的任务来说,可以使用按日期组织的数据集。

2016-06-20

Spark机器学习推荐模型数据集

我们将使用推荐引擎中使用的电影打分数据集,这个数据集主要分为三个部 分:第一个是电影打分的数据集(在u.data文件中), 第二个是用户数据(u.user),第三个是电影数据(u.item)。除此之外,我们从题材文件中获取了每个电影的题材(u.genre)。

2016-06-18

Spark机器学习回归模型数据集

为了阐述本章的一些概念,我们选择了bike sharing数据集做实验。这个数据集记录了bike sharing系统每小时自行车的出租次数。另外还包括日期、时间、天气、季节和节假日等相关信息。

2016-06-15

Spark机器学习分类模型的数据集

考虑到推荐模型中的 MovieLens 数据集和分类问题无关,本章将使用另外一个数据集。这个 数据集源自 Kaggle 比赛,由 StumbleUpon 提供。比赛的问题涉及网页中推荐的页面是短暂(短暂 存在,很快就不流行了)还是长久(长时间流行)。

2016-06-15

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除