机器学习
Aperact
这个作者很懒,什么都没留下…
展开
-
Machine-Learning(二):逻辑回归 Logistic Regression
文章目录逻辑回归——模型简介逻辑回归——算法公式逻辑回归——算法目标逻辑回归——使用简介 逻辑回归——模型简介 不同于线性回归,逻辑回归常常用于分类问题,算法的输出值或者说预测值一直介于0和1,因此逻辑回归是一种分类算法(classification y = 0 or 1)。 逻辑回归——算法公式 逻辑回归代价函数: 梯度下降: 逻辑回归——算法目标 给定: 训练集 X ∈R(m*n)...原创 2019-03-04 16:20:37 · 891 阅读 · 0 评论 -
Machine-Learning(一):线性回归 linear regression
文章目录线性回归——模型简介线性回归——算法公式线性回归——算法目标线性回归——使用简介 线性回归——模型简介 线性回归一般用于趋势预估等,如房价预测问题。其结构为:输入,计算,输出预测值。 线性回归——算法公式 函数表达式: 代价函数: 梯度: 线性回归——算法目标 通过给定训练集 X 及标签 y ,得到一组最优化θ,使得代价J(θ)最小。通过最小的θ,预测之后的数据趋势。 例如房价预测等...原创 2019-03-04 17:31:20 · 260 阅读 · 0 评论 -
Deep Leaning 学习笔记(4)—— python numpy常用点
数组 x = np.array([1, 2, 3]) print (x.shape) 输出为(3,) 因此记住如果要用 x = np.array([1, 2, 3]) 来创建数组,记得要reshape 即 x = np.array([1, 2, 3]).reshape(1,3) 输出为(1,3) ...原创 2019-06-19 11:38:25 · 190 阅读 · 0 评论 -
Deep Leaning 学习笔记之组织机器学习项目(1.1)—— 单值评价指标
s原创 2019-08-21 09:31:14 · 257 阅读 · 0 评论 -
Deep Leaning 学习笔记之组织机器学习项目(1.2)—— 机器学习与人类性能对比
1 性能对比 1.1 概念 贝叶斯误差:最小真实误差。绿色的虚线则为贝叶斯误差。 紫色曲线:代表精确度,随着训练时间的上涨,无限接近贝叶斯误差(最小误差) 1.2 避免方差、偏差 左侧,训练集和人类误差(约等于贝叶斯误差)相差7%,所以有很大的提升空间,就应该大力减少偏差(训练更大的神经网络,更长训练时间等,更好的优化算法如adam等) 右侧,训练集和人类误差已经相差无几,可修正误差为0.5%,...原创 2019-08-22 09:20:08 · 171 阅读 · 0 评论 -
Deep Leaning 学习笔记之组织机器学习项目(2.1)—— 误差分析
1 误差分析 1.1 进行误差分析——列表格 在开发集中进行 将被分错的图片挑出来其中100张(可以更多) 建立一个如下表格: 行:图片的序号,以及每个因素所占百分比。 列:影响误分类的因素,如狗,错误的分成猫;豹子,错误分成猫;下雨天,错误分成带猫的。。。 根据百分比来看,哪一项所占百分比更高,那么这一项就更指的进行修改。 1.2 清理标记错误的数据 建议: 如果要清理错误标签,那么...原创 2019-08-22 11:26:08 · 151 阅读 · 0 评论 -
Deep Leaning 学习笔记之组织机器学习项目(2.2)—— 不匹配的培训和开发/测试集
2 不匹配的培训和开发/测试集 2.1 不同分布上的训练和测试 假设:网图20W数据,用户上传1W数据 option1:随机打乱,然后分配。Train:205000,Dev:2500,Test:2500 这样不好。因为在dev和test set中,大量的数据还是源于网图,并不是我们想要的对于用户上传的预测结果,这样会扰乱我们对模型优化的方向。 option2:将20w网图和5000用户上传图作为...原创 2019-08-22 11:26:18 · 208 阅读 · 0 评论 -
Deep Leaning 学习笔记之组织机器学习项目(2.3)—— 迁移学习&多任务学习
1 迁移学习 1.1 概念 深度学习中最有力的方法之一,是有时你可以把在一个任务中神经网络 学习到的东西,应用到另一个任务中去。 比如,你可以让神经网络 学习去识别物体,比如猫,然后用学习到的 (一部分)知识 来帮助你更好地识别X射线的结果。 这就是所谓的迁移学习。 1.2 步骤 比如说X,Y是猫分类器的输入与输出。 将猫分类器迁移为放射结果诊断。 迁移学习,指的是,取出这个神经网络的最后一层,...原创 2019-08-29 22:30:27 · 236 阅读 · 0 评论 -
Deep Leaning 学习笔记之组织机器学习项目(2.4)——端对端学习
1 端对端学习 1.1 概念 简单地说,我们有一些数据处理系统,或者是由多个阶段组成的学习系统,端到端的深度学习做的,就是它可以捕获所有的阶段,并且,通常可以将其替代为单个神经网络,也就是说运行速度更快。 1.2 例子 正常学习,是一步步进行学习。 比如,通过一张手的X光图片,先学习每个骨节的长度,再学习手的平均长度,然后推断人的年龄。 input X ——> 每个骨节长度 ——> ...原创 2019-08-30 00:00:30 · 225 阅读 · 0 评论