神经网络例子—T恤销售好坏预测
输入层:衬衫价格,运输成本,营销,材质
中间层:可购性,潜在意识 ,质量意见
输出层:销量好坏的可能
更复杂的神经网络具有更多的中间层,更多的特征等等。
神经网络为前向传播,从左至右,依次计算
常用损失函数:
分类(逻辑回归)BinaryCrossentropy():
L
(
f
(
x
)
,
y
)
=
−
y
l
o
g
(
f
(
x
)
)
−
(
1
−
y
)
l
o
g
(
1
−
f
(
x
)
)
L(f(x),y)=-ylog(f(x))-(1-y)log(1-f(x))
L(f(x),y)=−ylog(f(x))−(1−y)log(1−f(x))
回归问题:MeanSquareError()
常用激活函数g(x):
a
=
g
(
x
)
=
(
w
⋅
x
+
b
)
\mathbf{a}=g(\mathbf{x}) =(\mathbf{w} \cdot \mathbf{x}+\mathbf{b})
a=g(x)=(w⋅x+b)
sigmoid():g(z) =
1
1
+
e
z
\frac{1}{1+e^{z}}
1+ez1 (0,1)
Linear activation function():g(z)=z R
ReLU():g(z)=max(0,z) [0,+∞)
激活函数的选择:大多根据输出层y的取值范围
隐藏层的激活函数常用ReLU()
多类softmax
Logic regression(2 possible output value):
z
=
w
⋅
x
+
b
\mathbf{z}=\mathbf{w} \cdot \mathbf{x}+\mathbf{b}
z=w⋅x+b
a
1
=
1
1
+
e
−
z
a_1 = \frac{1}{1+e^{-z}}
a1=1+e−z1
a
2
=
1
−
a
1
a_2 = 1-a_1
a2=1−a1
l
o
s
s
=
−
y
l
o
g
a
1
−
(
1
−
y
)
l
o
g
(
1
−
a
1
)
loss = -ylog a_1-(1-y)log(1-a_1)
loss=−yloga1−(1−y)log(1−a1)
softmax regression(n possible outputs):
z
j
=
w
j
⋅
x
+
b
j
\mathbf{z_j}=\mathbf{w_j} \cdot \mathbf{x}+\mathbf{b_j}
zj=wj⋅x+bj
a
j
=
e
z
j
∑
k
=
1
N
e
z
k
a_j = \frac{e^{z_j}}{\sum_{k=1}^{N}e^{z_k}}
aj=∑k=1Nezkezj
l
o
s
s
=
−
l
o
g
a
n
loss = -log a_n
loss=−logan if
y
=
n
y=n
y=n
多类与多标签分类
muti class classification:输出结果为单一数值,从多个选项中选出一个
muti lable classification:输出结果为向量(同时判断了多个事件)
优化方法—adam算法
根据计算的损失结果自动调整学习率
convolutional layer
卷积层:一个神经元只针对一部分输入层的内容
机器学习—神经网络
最新推荐文章于 2024-07-25 18:25:30 发布