![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 75
Evelyn Young
这个作者很懒,什么都没留下…
展开
-
Task6-卷积神经网络(CNN)
(没学太明白啊(ó﹏ò。)后面再看一些别的资料补充再来修改本文吧(超小声)) 常用语影像处理 流程: input→\to→convolution→\to→max pooling→\to→convolution→\to→max pooling …\dots…→\to→flatterm→\to→全连接前馈神经网络→\to→output 图案特征 图案比整张图小很多 同一图案出现在不同的区域 对像素下采样不会改变物品的基本信息 其中1、2用卷积,3用Max Pooling ...原创 2021-08-26 10:14:01 · 90 阅读 · 0 评论 -
Task5-神经网络设计的技巧
优化失败的可能原因 在critical point卡住了,即梯度为0的地方卡住了。 两种critical point:局部最小点;鞍点 在低维度中的局部最小点在高维度中可能是鞍点;在低维度中的critical point在高维度中可能不属于critical point 找出是哪一种情形:泰勒级数 当θ\thetaθ趋于θ′\theta'θ′时: L(θ)≈L(θ′)+(θ−θ′)T∂θ′∂θi+12(θ−θ′)T∂2L(θ′)∂θi∂θj(θ−θ′)L(\theta)≈L(\theta')+(\theta-原创 2021-08-23 20:29:23 · 123 阅读 · 0 评论 -
Task4-P13-14-深度学习介绍和反向传播算法
深度学习 Steps:神经网络→\to→模型评估→\to→择优 神经网络 神经元 完全连接前馈神经网络 中间层:hidden layer deep:即hidden layer层数多 层数过多时,用矩阵运算更高效。 用矩阵表示运算 多层时,y=f(wl...f(w2f(w1x+b1)+b2)...+bl)y=f(w^l ... f(w^2f(w^1x+b^1)+b^2)...+b^l)y=f(wl...f(w2f(w1x+b1)+b2)...+bl) 模型评估 C(y,y^)=−∑iyi^lnyiC原创 2021-08-21 16:13:06 · 101 阅读 · 0 评论 -
Task3-P5-8-Error & Gradient Descent
误差来源 无偏估计 E(1N∑xn)=1N∑nExn=NNExn=μE(\frac{1}{N}\sum x^n)=\frac{1}{N}\sum_n Ex^n=\frac{N}{N}Ex^n=\muE(N1∑xn)=N1∑nExn=NNExn=μ Var(1N∑xn)=σ2NVar(\frac{1}{N}\sum x^n)=\frac{\sigma ^2}{N}Var(N1∑xn)=Nσ2 有偏估计 S2=1N∑(xn−1N∑xn)2S^2=\frac{1}{N}\sum (x^n-\frac{原创 2021-08-20 11:43:38 · 93 阅读 · 0 评论 -
Task2-P3-4:Regression
标记提示 xbax^a_bxba中,a:x的编号,b:x的部分/特征/属性 yba^\hat{y^a_b}yba^表示y的真实值,a、b同上 Steps 模型:线性模型 一元:y=wx+by=wx+by=wx+b 多元:y=w∑xi+by=w\sum x^i +by=w∑xi+b 改变www和bbb以获得方法集 模型评估:损失函数 y的预测值和真实值的方差 L(w,b)=∑i=1m[yi^−(xi+b)]2L(w,b)= \sum_{i=1}^m [\hat{y^i} - (x^i +b)]^2L(w原创 2021-08-16 11:53:19 · 78 阅读 · 0 评论 -
Task1-P1-2-Introduction
ML介绍 yes Maybe Steps 模型:线性模型 一元:y=wx+by=wx+by=wx+b 多元:y=w∑xi+by=w\sum x_i +by=w∑xi+b 模型评估:损失函数 Best function选择 y^\hat{y}y^原创 2021-08-16 11:55:56 · 96 阅读 · 0 评论