机器学习
文章平均质量分 93
萝卜地里的兔子
爱吃胡萝卜的兔子
展开
-
吴恩达深度学习编程作业汇总
以下列表为吴恩达的深度学习课程所对应的编程作业列表,都直接指向了github的连接地址;这些作业也是我在网上购买,可能与官方的内容有所出入;同时由于有的训练集和测试集以及预训练好的参数过大,不便上传,所以直接clone项目是无法运行的。如果是只看代码,完全可以满足使用的要求;需要完成版的可以留下邮箱,我单独发送给你。第一部分-第二周1.assignment2_1.ipynb --> P...原创 2019-12-05 19:01:33 · 7435 阅读 · 50 评论 -
inverted dropout示例
目录1、前向传播2、后向传播这里是完成的吴恩达的深度学习课程作业中的一个inverted dropout的作业题,是一种很流行的正则化方式。这里做一个记录,重点记录了如何实现前向和后向的inverted dropout,都是代码片段,无法运行;完整的代码请参见吴恩达的第二课的第一周的作业。1、前向传播def forward_propagation_with_dropout(X, parame...原创 2019-08-16 16:25:28 · 956 阅读 · 0 评论 -
《吴恩达深度学习》第一课第四周任意层的神经网络实现及BUG处理
目录一、实现1、吴恩达提供的工具函数sigmoidsigmoid求导relurelu求导2、实现代码导包和配置初始化参数前向运算计算损失后向运算更新参数组装模型3、问题及思考一、实现1、吴恩达提供的工具函数这几个函数这里只是展示一下,这是吴恩达写好的工具类,在实现的部分会导入;具体查看提供的附件sigmoiddef sigmoid(Z): A = 1/(1+np.exp(-Z))...原创 2019-08-13 14:06:29 · 718 阅读 · 0 评论 -
朴素Bayse新闻分类实践
目录1、信息增益(互信息)介绍(1)西瓜书中的信息增益[^1](2)PRML中的互信息[^2](3) 其实他们是一个东西2、朴素Bayse新闻分类[^3](1)常量及辅助函数(2)特征提取(3)训练模型(4)预测(5)测试(6)测试结果1、信息增益(互信息)介绍由于在最终的bayse算法中只使用了部分的特征,而特征的选择使用到了信息增益,所以在这里做一个简单的介绍。(1)西瓜书中的信息增益1...原创 2019-08-24 12:03:53 · 314 阅读 · 0 评论 -
深度学习优化算法实现(Momentum, Adam)
目录Momentum初始化更新参数Adam初始化更新参数除了常见的梯度下降法外,还有几种比较通用的优化算法;表现都优于梯度下降法。本文只记录完成吴恩达深度学习作业时遇到的Momentum和Adam算法,而且只有简要的代码。具体原理请看深度学习优化算法解析(Momentum, RMSProp, Adam),比较具体的说明了吴恩达版本的三种优化算法的讲述!Momentum初始化def init...原创 2019-08-19 16:48:39 · 2994 阅读 · 0 评论 -
从头开始建立神经网络翻译及扩展
目录翻译从头开始建立神经网络-简介导包和配置生成一个数据集实现用来展示决策边界的辅助函数Logistic Regression训练一个神经网络我们的神经网络如何进行预测学习神经网络的参数实现神经网络训练一个隐层有3个神经元的神经网络验证隐层神经元个数对神经网络的影响练习练习题解答1. Minibatch gradient2.Annealing learning rate3.其他激活函数Sigmoi...原创 2019-07-30 10:33:40 · 1352 阅读 · 0 评论 -
推荐系统实例
协同过滤与隐语义模型在机器学习问题中,我们见到的数据集通常是如下的格式:input target ... ... ...原创 2019-06-13 11:25:20 · 2182 阅读 · 0 评论 -
推荐系统浅浅的例子
对于推荐系统,有很多的很强大的算法。这里作为练习,只介绍基本的协同过滤算法(userbased)和FM(通过梯度下降的角度,还可以通过交替优化的角度来看)。 这里的例子是在七月算法的视频中看的,分析的内容基于自己的理解并对代码做了部分的勘误。(一)简单的user-based协同过滤算法 先来看一眼数据:userss = {"小明": {"中国合伙人": 5.0, "太平轮...原创 2019-05-28 14:41:12 · 503 阅读 · 0 评论 -
机器学习基石-作业四-代码部分
这次的作业内容主要就是对带正则化项的线性规划的闭式解做各种操作:选择、把数据分成训练集和交叉验证、k-折交叉验证。完全套公式就可以了,这里唯一的一个问题就是偏移量参不参加正则化;在林老师的课程中,最后的闭式解的公式为:按照这个公式,线性得分函数中的b也参加了正则化。而在吴恩达的课程,以及很多其他的地方得到的经验是,b一般是不参加正则化的。按照这样的理解,假设w0=b,那么公式为:...原创 2019-01-09 17:57:56 · 337 阅读 · 0 评论 -
机器学习基石-作业三-代码部分
梯度下降迭代和牛顿迭代,gradient_and_newton.py# -*- coding:utf-8 -*-# Author: Evan Miimport numpy as np"""作业三中使用梯度下降和牛顿法进行迭代"""def update(u, v, eta): u_tem = u - eta * (np.exp(u) + v * np.exp(u*v)...原创 2018-12-26 09:18:33 · 320 阅读 · 0 评论 -
机器学习基石作业二中的DECISION_STUMP实现
概要:在林老的题目描述中,DECISION_STUMP(其实就是“决策桩”,也就是只有一层的决策树)。题目中提到了的选去是把属性(一维的)按照从小到大的顺序排列以后取两个挨着的值的平均值,网上有人的实现会在开头和结尾的值手动去加一个小于最小的值,一个大于最大的值;添加的两个值的大小是多大合适,这是个问题。带来的另外一个问题就是,解释性变差了;就像《西瓜书》上说的,我们按西瓜的甜度区...原创 2018-12-18 15:26:43 · 2236 阅读 · 0 评论 -
机器学习基石作业一中的PLA和POCKET_PLA实现
前提:文中使用的数据是本人下载下来以后自己处理过的,就是把文件中的所有分隔符都换成了空格。所以load_data方法只能加载我自己的数据,想要加载原生数据的话需要自己写load_data方法。 两个算法的关键地方都需要判断当前的w在某个样本点x上是否犯错,而对于犯错的判断有两个版本,第一个版本就是直接使用 wx*y <= 0 就表...原创 2018-12-12 09:46:27 · 2054 阅读 · 0 评论 -
机器学习基石-作业三-第2题分析以及通过H证明EIN的讨论
题目: 这是机器学习基石作业三种的第二小题,额,在网上看了很多解答(解答也不多)感觉都没有说清楚为什么,所以励志清楚滴解决一下这个问题,经过努力,自认为得到了详细的解答,内容如下:(一)解决选项(e):当t=1时:当t>=2时,假设,则有 所以,,即H为幂等矩阵,那么最终就必然成立了。所以选项(e)是正确的。 (二)解决选项(c)(d):...原创 2018-12-22 12:40:37 · 809 阅读 · 0 评论 -
机器学习基石-作业二-第10题分析
题目如上图所示,答案是:;在网上看到的答案中有一个很好的解释就是说在一个n纬的欧几里德空间里,分别按照参数做一个垂直于每个轴的超平面,这些超平面能够打散这么多个点。首先我承认这个事实,具体的证明还没做过。这篇博文的主要作用是把题目转换成前面的描述,也就是说明两个问题是等价的。不想太简单,也不想太复杂,就拿二维平面来举例子了。一下的讨论都在二维空间中进行:首先来看S 是一个的向量的集合,...原创 2018-12-14 19:54:14 · 339 阅读 · 0 评论