机器学习
文章平均质量分 74
路飞在福州
我的python+tensorflow之路,就是一部血泪史、抗争史与奋斗史
展开
-
Machine Learning |吴恩达 (2)---神经网络【笔记】
Neural Networks Learning Neural Networks Learning Neural network model cost function Neural network model Forward: Backpropagation: cost function notation: a&原创 2018-06-11 15:00:29 · 245 阅读 · 1 评论 -
Machine Learning|吴恩达 (10)-大规模机器学习,随机梯度下降,映射化简
确定你的模型是高偏差还是高方差 假设你有1亿条数据,训练起来非常耗时耗资源。那么你可以先抽取1000条或10000条数据进行训练,检测你的模型。 画出如上误差曲线,用以确认你的模型是高偏差还是高方差的状况。如果是高方差的状况(如上左图),增加样本对提升正确率有帮助。如果是高偏差状况(如上右图),还是先考虑增加样本特征,否则增加样本数量对提升正确率的意义不大。 金句一条: “It’s n...原创 2018-06-20 00:37:34 · 502 阅读 · 0 评论 -
Machine Learning|吴恩达 (11)- 图片OCR,上限分析,课程总结
Photo OCR pipeline -Text detction(slide window) -Character segmentation -recognition(character classification) Artificial Data 又称为数据增强,人工的制造‘假’数据 -扭曲、变形(模仿人手写字的‘弹性扭曲’) -减噪与增噪 -添加背...原创 2018-06-19 23:40:41 · 525 阅读 · 0 评论 -
【翻译】卷积网络:一种模块化的观察(未完)
原文地址:《Conv Nets:A Modular Perspective》 Post on July 8,2014 介绍 过去的几年里,深度神经网络在许多模式识别问题上取得了图片,包括计算机视觉和声音识别领域。产生这些成果的原因之一是一种特别的神经网络,称为卷积神经网络。 从本质上说,卷积神经网络可以被理解为一种对有许多完全相同拷贝的相同神经元。这使得网络在保持实际参数(描述神经元行...原创 2018-06-26 15:33:12 · 180 阅读 · 0 评论 -
Machine Learning|番外篇-1 交叉熵代价函数(Cost Function)
从二次损失函数开始 sigmoid的函数及导数特性 使用二次损失函数的逻辑回归将‘学习缓慢’ 引入交叉熵cross-entropy 交叉熵的定义 逻辑回归是怎么勾搭上交叉熵的? 民谣与辟谣 从二次损失函数开始 回想线性回归的损失函数,使用的是二次损失函数quadratic loss function。 损失函数(cost function): J(θ0,θ1,…,θ...原创 2018-06-18 23:44:29 · 715 阅读 · 0 评论 -
Machine Learning|吴恩达 (9-2)- 推荐系统(Recommender Systems)
Collaborative filtering Collaborative filtering 协同过滤。不过这个直译名感觉表达不准确啊。可能叫“协同训练”更形象些。系统中涉及θ,xθ,x\theta \; ,x两项需要通过训练进行学习。人已越来越懒,这章节我觉得是全课程比较重要的章节之一。因为提出了“共同训练、循环预测”的概率。然后,居然不想再整理完整笔记了。好吧,以后有时...原创 2018-06-23 23:24:52 · 494 阅读 · 0 评论 -
Machine Learning|吴恩达 (7)-SVM(支持向量机)
线性分割 解决线性不可分 使用SVM 线性分割 线性可分时,代价函数为: minθC∑i=1m[y(i)cost1(θ(T)x(i))+(1−y(i))cost0(θ(T)x(i))+12∑i=1nθ2j]minθC∑i=1m[y(i)cost1(θ(T)x(i))+(1−y(i))cost0(θ(T)x(i))+12∑i=1nθj2]min_{\theta} C\sum_...原创 2018-06-23 22:49:22 · 779 阅读 · 0 评论 -
Machine Learning |吴恩达 (2-2)---神经网络,反向传播推导(超简单版)
神经网络,反向传播推导 神经网络,反向传播推导 标注说明 解题思路 寻找δ(l)δ(l)\delta^{(l)}与δ(l+1)δ(l+1)\delta^{(l+1)}之间的关系 确定δ(L)δ(L)\delta^{(L)}的值 标注说明 θ(l)i,jθi,j(l)\theta_{i,j}^{(l)}表明从(l+1)(l+1)(l+1)层的第i个元素到(l)(l)...原创 2018-06-15 23:49:45 · 6239 阅读 · 12 评论 -
Machine Learning|吴恩达 (6)应用机器学习的建议
将训练数据分为Train,cross validation,Test三个部分 诊断高偏差与高方差问题(Bias vs. Variance) 使用学习曲线观察效果 问题与对策 将训练数据分为Train,cross validation,Test三个部分 train数据集: 用来训练模型 cross validation数据集:用来测试确认,上一步训练的模型的超参数设定的好坏。...原创 2018-06-14 22:16:15 · 205 阅读 · 0 评论 -
Machine Learning|吴恩达 (1)线性回归与逻辑回归【含公式推导】
《Machine Learning》@ coursera.org | Formula Summarizi 《Machine Learning》@ coursera.org | Formula Summarizi Multivariate Linear Regression Normal Equation Logistic Regression 快捷键 Markdown及扩展 表格 定...原创 2018-06-10 16:45:26 · 1370 阅读 · 1 评论 -
Machine Learning(@Andrew Ng) WEEK 5 Exercise
spend two days in these code,very stupid. note the important part. ”’ function [J grad] = nnCostFunction(nn_params, … input_layer_size, … ...原创 2018-05-29 22:32:24 · 317 阅读 · 0 评论 -
贝叶斯推断的简介 与 解决小问题的例子
这两个问题都来自互联网,很多文章都有转载,但是,却总是不是缺这个公式,要不就缺那个图。根据贝叶斯原理及其推断简介补充上公式与计算过程,补全这两个问题的表述。 水果糖问题 两个一模一样的碗,一号碗有30颗水果糖和10颗巧克力糖,二号碗有水果糖和巧克力糖各20颗。现在随机选择一个碗,从中摸出一颗糖,发现是水果糖。请问这颗水果糖来自一号碗的概率有多大? 我们假定,H1表示一号碗,H2表示二号碗...原创 2018-06-29 00:06:01 · 2601 阅读 · 1 评论