深度学习之单层感知器1

深度学习之单层感知器1

1.原理

单层感知器原理图图中共有三个输入节点,通过这个三个输入节点输入数据,分别乘以各自的权值后相加,在加上偏置因子,通过激活函数sign得到输出。还可以把偏置因子b当作一个特殊的固定输入结点,即输入的x固定为1,权重w自己设置,这样设置的w就起到了偏置因子的作用。

2.学习规则

感知器学习规则

2.1权值调整公式

W的调整值=学习率*(期望输出-实际输出)*与W相对应输入节点X

2.2学习率

学习率一般取0到1之间,学习率太大容易造成权值调整不稳定,学习率太小容易造成权值调整太慢,迭代次数过多。

2.3收敛条件

1.误差小于某个预先设置的值
2.设置最大迭代次数

3.应用

3.1题目

假设平面坐标系上有三个点,(3,3),(4,3)这两个点的标签为1,(1,1)这个点标签为-1,构建神经网络来分类。

3.2思路

输入的数据为2维,所以输入节点为2个,把偏置因子也当成一个输入节点,共三个。

3.3代码(附带注释)

//引入库
import numpy as np
import matplotlib.pyplot as plt
//输入数据
X=np.array([[1,3,3],
            [1,3,4],
            [1,1,1]])
//输入标签
Y=np.array([1,1,-1])
//权值取01的随机数
W=(np.random.random(3)-0.5)*2
print(W)
//设置学习率
Lr=0.11
//计算迭代次数
n=0
//输出
O=0
//更新迭代次数并调整权值
def update():
    global X,Y,W,Lr,n
    n += 1
    O=np.sign(np.dot(X,W.T))
    W_C=Lr*((Y-O.T).dot(X))/int(X.shape[0])
    W=W+W_C
//用循环来进行权值的迭代
for _ in range(100):
    update()
    print(W)
    print(n)
    O=np.sign(np.dot(X,W.T))
    if(O == Y.T).all():
        print('Finished')
        print('epoch:',n)
        break
//将得到的结果画图
x1=[3,4]
y1=[3,3]
x2=[1]
y2=[1]
k=-W[1]/W[2]
d=-W[0]/W[2]
print('k=',k)
print('d=',d)
xdata=np.linspace(0,5)
plt.figure()
plt.plot(xdata,xdata*k+d,'r')
plt.plot(x1,y1,'bo')
plt.plot(x2,y2,'yo')
plt.show()

3.4结果展示

数值结果
画图
Ps.以上来自学习CSDN五天入门深度学习有感

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值