7月25日深度学习笔记——Classification


前言

本文为7月25日深度学习笔记,分为三个章节:

  • How to do Classification;
  • Logistic Regression;
  • Intro to Deep Learning.

一、How to do Classification

1、Two Classes

1
蓝球来自于 B 1 B_1 B1的概率:
P ( B 1 ∣ B l u e ) = P ( B l u e ∣ B 1 ) P ( B 1 ) P ( B l u e ∣ B 1 ) P ( B 1 ) + P ( B l u e ∣ B 2 ) P ( B 2 ) P(B_1|Blue) = \frac{P(Blue|B_1) P(B_1)}{P(Blue|B_1) P(B_1) + P(Blue|B_2) P(B_2)} P(B1Blue)=P(BlueB1)P(B1)+P(BlueB2)P(B2)P(BlueB1)P(B1)

2
Given an x x x, which class does it belong to:
P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) P(C_1|x) = \frac{P(x|C_1) P(C_1)}{P(x|C_1) P(C_1) + P(x|C_2) P(C_2)} P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1)

2、Gaussian Distribution

f μ , ∑ ( x ) = 1 ( 2 π D / 2 ) 1 ∣ ∑ ∣ 1 / 2 e x p { − 1 2 ( x − μ ) T ∑ − 1 ( x − μ ) } f_{\mu, \sum}(x) = \frac{1}{(2\pi ^{D/2})} \frac{1}{|\sum|^{1/2}} exp\{-\frac {1}{2}(x-\mu)^T \textstyle \sum^{-1}(x-\mu) \} fμ,(x)=(2πD/2)11/21exp{21(xμ)T1(xμ)}

  • input: vector x;

  • output: probability of sampling x.

    Where μ \mu μ is the mean, ∑ \sum is the covariance matirx(协方差矩阵).

3、Maximum Likelihood

L ( μ , ∑ ) = f μ , ∑ ( x 1 ) f μ , ∑ ( x 2 ) … f μ , ∑ ( x n ) μ ∗ , ∑ ∗ = a r g   m i n   L ( μ , ∑ ) μ ∗ = 1 79 ∑ n = 1 n x n ∑ ∗ = 1 79 ∑ n = 1 n ( x n − μ ∗ ) ( x n − μ ∗ ) T L(\mu, \sum) = f_{\mu, \sum}(x^1) f_{\mu, \sum}(x^2) … f_{\mu, \sum}(x^n)\\ \mu*, \sum* = arg\ min\ L(\mu, \sum)\\ \mu* = \frac{1}{79}\sum_{n=1}^{n}x^n \quad \sum* = \frac{1}{79}\sum_{n=1}^{n}(x^n - \mu*)(x^n - \mu*)^T L(μ,)=fμ,(x1)fμ,(x2)fμ,(xn)μ,=arg min L(μ,)μ=791n=1nxn=791n=1n(xnμ)(xnμ)T

P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) P ( x ∣ C 1 ) = f μ 1 , ∑ 1 ( x ) = 1 ( 2 π D / 2 ) 1 ∣ ∑ 1 ∣ 1 / 2 e x p { − 1 2 ( x − μ 1 ) T ( ∑ 1 ) − 1 ( x − μ 1 ) } P ( C 1 ) = 0.56 P ( x ∣ C 2 ) = f μ 2 , ∑ 2 ( x ) P ( C 2 ) = 0.44 P(C_1|x) = \frac{P(x|C_1) P(C_1)}{P(x|C_1) P(C_1) + P(x|C_2) P(C_2)}\\ P(x|C_1) = f_{\mu^1, \sum^1}(x) = \frac{1}{(2\pi ^{D/2})} \frac{1}{|\sum^1|^{1/2}} exp\{-\frac {1}{2}(x-\mu^1)^T \textstyle (\sum^1)^{-1}(x-\mu^1) \}\\ P(C_1) = 0.56\\ P(x|C_2) = f_{\mu^2, \sum^2}(x)\\ P(C_2) = 0.44 P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1)P(xC1)=fμ1,1(x)=(2πD/2)111/21exp{21(xμ1)T(1)1(xμ1)}P(C1)=0.56P(xC2)=fμ2,2(x)P(C2)=0.44

4、Modyfying Model

使两个 class 有同样的方差 Σ \Sigma Σ.
L ( μ 1 , μ 2 , Σ ) = f μ 1 , Σ ( x 1 ) f μ 1 , Σ ( x 2 ) … f μ 1 , Σ ( x 7 9 ) × f μ 2 , Σ ( x 8 0 ) f μ 2 , Σ ( x 8 1 ) … f μ 2 , Σ ( x 1 40 ) L(\mu^1, \mu^2, \Sigma) = f_{\mu^1, \Sigma}(x^1)f_{\mu^1, \Sigma}(x^2) … f_{\mu^1, \Sigma}(x^79)\times f_{\mu^2, \Sigma}(x^80) f_{\mu^2, \Sigma}(x^81) … f_{\mu^2, \Sigma}(x^140) L(μ1,μ2,Σ)=fμ1,Σ(x1)fμ1,Σ(x2)fμ1,Σ(x79)×fμ2,Σ(x80)fμ2,Σ(x81)fμ2,Σ(x140)
3
P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) = 1 1 + P ( x ∣ C 2 ) P ( C 2 ) P ( x ∣ C 1 ) P ( C 1 ) 令  z = l n P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 2 ) P ( C 2 ) P ( C 1 ∣ x ) = 1 1 + e x p ( − z ) = σ ( z ) ( S i g m o i d f u n c t i o n ) = σ ( w ⋅ x + b ) P(C_1|x) = \frac{P(x|C_1) P(C_1)}{P(x|C_1) P(C_1) + P(x|C_2) P(C_2)} = \frac{1}{1+\frac{P(x|C_2) P(C_2)}{P(x|C_1) P(C_1)}}\\ 令\ z=ln\frac{P(x|C_1) P(C_1)}{P(x|C_2) P(C_2)}\\ P(C_1|x) = \frac{1}{1+exp(-z)} = \sigma (z)(Sigmoid function) = \sigma (w\cdot x + b) P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1)=1+P(xC1)P(C1)P(xC2)P(C2)1 z=lnP(xC2)P(C2)P(xC1)P(C1)P(C1x)=1+exp(z)1=σ(z)(Sigmoidfunction)=σ(wx+b)
4


二、Logistic Regression

1、Step 1: Function Set

5

2、Goodness of a Function

(1)、Cross Entropy

6
H ( p , q ) = − ∑ x p ( x ) l n ( q ( x ) ) = ∑ n − [ y ^ n l n f w , b ( x n ) + ( 1 − y ^ n ) l n ( 1 − f w , b ( x n ) ) ] H(p, q) = -\sum_{x} p(x)ln(q(x)) = \sum_n -[\hat{y}^n lnf_{w, b}(x^n) + (1-\hat{y}^n) ln(1 - f_{w, b}(x^n))] H(p,q)=xp(x)ln(q(x))=n[y^nlnfw,b(xn)+(1y^n)ln(1fw,b(xn))]

3、Find the best function

∂ l n L ( w , b ) ∂ w i − l n L ( w , b ) = ∂ l n f w , b ( x ) ∂ z ∂ z ∂ w i \frac{\partial lnL(w, b)}{\partial w_i} -lnL(w, b) = \frac{\partial lnf_{w, b}(x)}{\partial z} \frac{\partial z}{\partial w_i} wilnL(w,b)lnL(w,b)=zlnfw,b(x)wiz

(1)、Cross Entropy vs. Squarre Error

7

4、Multi-class Classification

8

  • Softmax:
    y n = e z n ∑ j = 1 n e z j y_n = \frac{e^{z_n}}{\sum_{j=1}^{n} e^{z_j}} yn=j=1nezjezn

三、Intro to Deep Learning

1、Step 1: Neural Network

9

2、Step 2: Goodness of function

  • Total Loss:
    10

3、Step 3: pick the best function (Gradient Descent)

11


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习是一种利用神经网络进行学习和预测的技术,可以适用于各种领域的应用。在Matlab中,可以使用很多开源的深度学习库,如TensorFlow、Keras、MXNet等。在本文中,我主要介绍使用Matlab自带的深度学习库——Deep Learning Toolbox进行编程的方法。 首先,需要准备好训练数据和标签数据,并对数据进行初步处理,如归一化、划分训练集和验证集等操作。然后,可以选择合适的神经网络模型,如卷积神经网络(Convolutional Neural Network, CNN)、循环神经网络(Recurrent Neural Network, RNN)等,并根据实际情况配置网络结构和参数。可以通过以下代码实现: model = <选择合适的神经网络模型>; layers = <配置网络层>; options = trainingOptions(<设置训练选项>); 接下来,可以调用Matlab中的trainNetwork函数对模型进行训练和优化,如下所示: net = trainNetwork(<训练数据>,<标签数据>,<网络结构>,<训练选项>); 在训练过程中,可以利用Matlab的插件工具箱进行监控和可视化,如Network Analyzer、Classification Learner等。 当模型训练完成后,可以使用evaluate和classify函数进行测试和预测,如下所示: result = evaluate(<测试数据>,<测试标签>,<网络结构>); [label, score] = classify(<测试数据>,<网络结构>); 最后,可以利用Matlab的一些图形界面工具箱(如UIFigure、GUIDE等)将代码封装成一个完整的应用程序,以方便用户进行调用和使用。 总而言之,使用Matlab进行深度学习编程是一种简单快捷、易于掌握的方式,有助于开发出高效、准确的深度学习模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值