机器学习—神经网络

神经网络例子—T恤销售好坏预测
在这里插入图片描述
输入层:衬衫价格,运输成本,营销,材质
中间层:可购性,潜在意识 ,质量意见
输出层:销量好坏的可能
更复杂的神经网络具有更多的中间层,更多的特征等等。
神经网络为前向传播,从左至右,依次计算
常用损失函数:
分类(逻辑回归)BinaryCrossentropy():
L ( f ( x ) , y ) = − y l o g ( f ( x ) ) − ( 1 − y ) l o g ( 1 − f ( x ) ) L(f(x),y)=-ylog(f(x))-(1-y)log(1-f(x)) L(f(x),y)=ylog(f(x))(1y)log(1f(x))
回归问题:MeanSquareError()
常用激活函数g(x):
a = g ( x ) = ( w ⋅ x + b ) \mathbf{a}=g(\mathbf{x}) =(\mathbf{w} \cdot \mathbf{x}+\mathbf{b}) a=g(x)=(wx+b)
sigmoid():g(z) = 1 1 + e z \frac{1}{1+e^{z}} 1+ez1      (0,1)
Linear activation function():g(z)=z      R
ReLU():g(z)=max(0,z)       [0,+∞)
激活函数的选择:大多根据输出层y的取值范围
隐藏层的激活函数常用ReLU()
多类softmax
Logic regression(2 possible output value):
z = w ⋅ x + b \mathbf{z}=\mathbf{w} \cdot \mathbf{x}+\mathbf{b} z=wx+b
a 1 = 1 1 + e − z a_1 = \frac{1}{1+e^{-z}} a1=1+ez1
a 2 = 1 − a 1 a_2 = 1-a_1 a2=1a1
l o s s = − y l o g a 1 − ( 1 − y ) l o g ( 1 − a 1 ) loss = -ylog a_1-(1-y)log(1-a_1) loss=yloga1(1y)log(1a1)
softmax regression(n possible outputs):
z j = w j ⋅ x + b j \mathbf{z_j}=\mathbf{w_j} \cdot \mathbf{x}+\mathbf{b_j} zj=wjx+bj
a j = e z j ∑ k = 1 N e z k a_j = \frac{e^{z_j}}{\sum_{k=1}^{N}e^{z_k}} aj=k=1Nezkezj
l o s s = − l o g a n loss = -log a_n loss=logan       if y = n y=n y=n
多类与多标签分类
muti class classification:输出结果为单一数值,从多个选项中选出一个
muti lable classification:输出结果为向量(同时判断了多个事件)
优化方法—adam算法
根据计算的损失结果自动调整学习率
convolutional layer
卷积层:一个神经元只针对一部分输入层的内容

  • 29
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值