感知机(与门、与非门、或门、异或门)的实现

    1957年Rosenblatt设计并制作出了感知机,历时半个世纪,硬件水平的极大提高以及大数据的发展,感知机焕发新的力量,因为这个就是当今最流行的人工神经网络的雏形,有着极其的重要性,通过感知机可以了解到神经网络原来是这样发展起来的!

    神经网络顾名思义就是模拟大脑进行工作,多层的叠加就类似于大脑的无数神经元在工作,通过对外界的刺激做出反应和识别,已经有很多比较成熟的东西出现,人脸识别,无人驾驶等

import numpy as np
def AND(x1,x2):
    x=np.array([x1,x2]);
    w,b=0.5,-0.7;#权重与偏置
    if(np.sum(x*w)+b<=0):
        return 0;
    else:
        return 1;

AND(0,0),AND(0,1),AND(1,0),AND(1,1)
(0, 1, 1, 1)

def NAND(x1,x2):
    x=np.array([x1,x2]);
    w,b=-0.5,0.7;
    if(np.sum(x*w)+b<=0):
        return 0;
    else:
        return 1;

NAND(0,0),NAND(0,1),NAND(1,0),NAND(1,1)
 (1, 1, 1, 0)


def OR(x1,x2):
    x=np.array([x1,x2]);
    w,b=0.5,-0.2;
    if(np.sum(x*w)+b<=0):
        return 0;
    else:
        return 1;

OR(0,0),OR(0,1),OR(1,0),OR(1,1)
(0, 1, 1, 1)

从上面代码可以看出,感知机的构造是一样的,不同的就是权重和偏置

def XOR(x1,x2):
    s1=NAND(x1,x2);
    s2=OR(x1,x2);
    y=AND(s1,s2);
    return y
XOR(0,0),XOR(0,1),XOR(1,0),XOR(1,1)
(0, 1, 1, 0)

看似简单,却是神经网络的基础,也是神经网络为什么能发展起来的原理,通过简单叠加不同的层就可以实现一些看起来不好实现的东西,这个特点是很强大的!

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

寅恪光潜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值