从Google人工智能DeepMind团队的AlphaGo的论文算法提取的学习方法:大脑逻辑结构图

贝叶斯定理考虑的是 P(A|B)是在B发生的情况下A发生的可能性。在现实中,事件A受多个事件的影响,还可能受上一次事件A本身的影响(反馈)。

可以写成 人工智能通用反馈公式y=f(x,y1),其中y1=f(x)。它是强化学习和自我学习的基础。

从AlphaGo的论文算法 提取的人工智能学习方法

第一层 价值判断

         重要的----百里挑一 ,去掉99%无用的。

第二层 快速响应(简单)和深度理解(复杂)

         简单:常见的,固定的逻辑

         复杂:卷积神经网络(分层拆分计算,求无限接近值)+蒙特卡洛树搜索(选重要节点向后推断,得到最优值)

第三层 强化学习

         决策下一步 赏罚激励

第四层 专家网络

         并入已有认知网络(归类)

第五层 自我提升

         反向更新 自我学习


像不像我们的大脑?

你出门转一圈,并不会像摄像机一样记下所有东西,而是你会选择你认为重要的关注(价值判断)。

如果这条路你走了无数遍,你不会迷路,会快速找到你要逛的店(快速响应),这条路又熟悉了一遍(强化学习)。

但如果你走到了一条你从来没走过的街,遇到了不同的人,不同的房子,不同的植物等等,你可能很感兴趣。在看的同时,你会把这些特征试图理解(深度理解),贴上标签,存入你已有的认知体系(专家网络)。

你对周围越敏感,越在意,思考的越深(规则、算法、分层越多,拆分的越细,计算的时间越长),贴的标签越多,记住的东西越完整(深度理解)。

等下次再遇到时,你就会快速地(快速响应)知道,那人我曾经在哪遇到过。

如果这条新街,初次来就给你很多乐趣(赏罚激励),你下次肯定优先来这里逛。

你的价值判断会自动把这条街升级为最值得逛的街(反向更新,在五个层次里都会更新)。同时你还不断回忆这段快乐时光(自我学习)。



  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小黄人软件

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值