深度学习之单层感知器1
1.原理
图中共有三个输入节点,通过这个三个输入节点输入数据,分别乘以各自的权值后相加,在加上偏置因子,通过激活函数sign得到输出。还可以把偏置因子b当作一个特殊的固定输入结点,即输入的x固定为1,权重w自己设置,这样设置的w就起到了偏置因子的作用。
2.学习规则
2.1权值调整公式
W的调整值=学习率*(期望输出-实际输出)*与W相对应输入节点X
2.2学习率
学习率一般取0到1之间,学习率太大容易造成权值调整不稳定,学习率太小容易造成权值调整太慢,迭代次数过多。
2.3收敛条件
1.误差小于某个预先设置的值
2.设置最大迭代次数
3.应用
3.1题目
假设平面坐标系上有三个点,(3,3),(4,3)这两个点的标签为1,(1,1)这个点标签为-1,构建神经网络来分类。
3.2思路
输入的数据为2维,所以输入节点为2个,把偏置因子也当成一个输入节点,共三个。
3.3代码(附带注释)
//引入库
import numpy as np
import matplotlib.pyplot as plt
//输入数据
X=np.array([[1,3,3],
[1,3,4],
[1,1,1]])
//输入标签
Y=np.array([1,1,-1])
//权值取0到1的随机数
W=(np.random.random(3)-0.5)*2
print(W)
//设置学习率
Lr=0.11
//计算迭代次数
n=0
//输出
O=0
//更新迭代次数并调整权值
def update():
global X,Y,W,Lr,n
n += 1
O=np.sign(np.dot(X,W.T))
W_C=Lr*((Y-O.T).dot(X))/int(X.shape[0])
W=W+W_C
//用循环来进行权值的迭代
for _ in range(100):
update()
print(W)
print(n)
O=np.sign(np.dot(X,W.T))
if(O == Y.T).all():
print('Finished')
print('epoch:',n)
break
//将得到的结果画图
x1=[3,4]
y1=[3,3]
x2=[1]
y2=[1]
k=-W[1]/W[2]
d=-W[0]/W[2]
print('k=',k)
print('d=',d)
xdata=np.linspace(0,5)
plt.figure()
plt.plot(xdata,xdata*k+d,'r')
plt.plot(x1,y1,'bo')
plt.plot(x2,y2,'yo')
plt.show()
3.4结果展示
Ps.以上来自学习CSDN五天入门深度学习有感