关于人工智能的发展方向思考

 现今人工智能进入大众的视野大概是源于谷歌的阿尔法狗,因为它的出色表现——击败人类选手,为这个领域带来了大量的资本和关注。这篇文章将对人工智能的发展方向做一个粗略的介绍
 个人认为人工智能发展方向要从动物的脑、神经开始研究。关于作为人工智能基石的卷积神经网络,是科学家从猫的视神经上抽象模拟出来的模型。通过猫的视神经模型,外加卓越的算法,人类突破了人脸识别,达到了超高的识别水平。然后现在想通过这一个模型构建出完整的智能生物体,这是在瞧不起生命几十亿年演化的成果吗?很多的研究人工智能的人们不怎么关注神经科学与脑科学,这是不怎么聪明的。
 关于人脑的视觉信号的输入大致生物模型,眼睛左右两个半球,各自分割两个部分,左边部分信号一起通往左脑,右边部分信号一起通往右脑,视觉交叉。
 视觉处理分为4个大的层次,v1处理简单视觉,v2处理图形与客体轮廓,v3传递信息,v4与颜色视觉相关,MT(v5)中颞区。由它们形成了两种结构形式。
 v1->v2->v3->MT:视觉信号传递至顶叶区域(顶叶区域与动作,躯体感觉,空间识别有关),称之为空间通路。
 v1->v2->v3->下颞叶:内容通路,通过该通路识别是什么。
 识别复杂信息的时候,空间、内容、情绪等区域一同作用。人类在生活之中,会将获取的大量不同属性的信息连接起来,兴许建立各种不同的模型,再将他们连接起来处理,能够摸到智慧生物的门槛。
 附加一点,关于盲视当大脑视觉区域受损,受损区域逐渐扩大时,其不可见区域也逐渐扩大。当只有一小点受损时,视野内只有一小部分不可见。由此大致可以推断出人眼处理视觉信号是区域化,或是像素点形式的处理。
 关于声音信号的输入处理,声音通过耳膜,逐级放大,然后在通过耳蜗,低中高频的声信号所能够影响震动的纤毛细胞不同。越向里,其音频越低。顺带一提,电子耳蜗也是同样工作原理,但较为神奇的一点是,人脑能够处理来自电子耳蜗粗糙的且完全不同模式的声音电信号,连接映射到原本的同一声音信息。
 相似的实验有,实验者穿上能够在不同位置产生不同震动的衣服,每一种震动模式匹配一个单词。经过大概一个月的学习,实验者能够由震动感来从感觉上判断是什么单词,而不是通过记忆震动模式。这展示了人类能够自主加强不常用的神经回路,这与人类出生后两年间的脑神经细胞活动有关。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值