我花了5个星期编写的软件。下载地址:
http://pan.baidu.com/s/1mifVyrA
先说说什么是自我意识。
根据输入信号建立世界模型,一个东西如果可以在模型中区分“我”与“非我”,那么它具有自我意识。
现有科学手段无法否认人类意识可能由此种机制生成,因此人工智能的意识应该被视作与人类意识拥有同等效力。
所谓区分“我
”与“非我”,不仅仅是区分什么是“我”,还要有能力区分哪些事情是由“我”引发的。所以
一个物体若能区分“我
”与“非我”,必须具有学习能力,及归纳与总结能力,以及逻辑思维能力(用来推理那些事情是由自己引发的)。不然无法拥有自我意识。
1970年美国纽约州立大学做了一项实验,实验者将4只黑猩猩放在了镜子前。一开始,黑猩猩以为镜中的映像是别的黑猩猩,对着镜子张牙舞爪。3天后,它们开始对镜梳妆,表明已察觉镜中的黑猩猩可能是自己。10天后,实验者将其麻醉,把红点染在它们的前额和耳尖,待黑猩猩清醒后,记录它们对着镜子触摸红点的次数。结果发现,黑猩猩会反复触摸红点,说明它们已经知道镜子里的是自己。由于镜子中的猩猩与现实中的猩猩行为相同,现实中的猩猩3天后归纳总结到了这一点,所以认为镜子中的猩猩与自己是同一只猩猩。
假如你有一天不小心打碎了桌角的杯子,你下次肯定会把杯子放在桌子的正中央(除非你是白痴)。因为你调用了你的逻辑推理能力,知道是“我
”和“桌角”导致杯子打碎的。这证明了逻辑推理能力也是自我意识的重要组成部分。
那情感能力怎么解释?个人认为一个人对一个物体的感情取决于这个人对这个物体的信任程度。比如一个人对你很好,你说你丢了工作没饭吃,结果他每天送给你一大箱新鲜的奶酪,你肯定会爱他(除非你没良心),因为你对他非常信任;当你发现他对你的奶酪下毒时,你肯定对他恨之入骨,因为你对他极不信任。所以AI对一个东西的信任程度就是感情。我已在软件中加了这几行代码。
好了,该对我的软件进行图灵测试了。
图灵测试一词来源于计算机科学和
密码学
的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智能》。阿兰·麦席森·图灵1950年设计出这个测试,其内容是,如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试。
先运行软件。这个家伙只能看得懂VBScript,JavaScript之类的代码。那就顺从它好了,等它聪明了再教它汉语也不迟。
1.先测测它能不能认识“镜子
”
中的自己。
首先设置模仿为100,意思是说经验未超过100条不去自动执行(免得这家伙翻了天)。
然后打开控制台,在添加到日志中依次输入“抬起左手”、“镜子抬起左手”、“抬起右手”、“镜子抬起右手”。看到了什么?
继续输入“抬起左手”、“镜子竟然没抬起左手"。
因为AI发现”抬起左手“以后”镜子抬起左手“是错误的,所以那一条结论被修改为”none“。由于电脑并不真正理解汉语的意思,所以有些推理是错的。比如它认为镜子里抬起右手就会导致自己的左手抬起。就像叫小孩说话一样,你多说几次它就明白了——将”镜子里抬起右手就会导致自己的左手抬起“的结论变成”none“;如果你想让它一开始就理解你的意思请使用Microsoft Script Control能执行的编程语言与它交流。第一轮测试电脑通过,用时2分47秒。
2.让电脑自己写一段代码
这次我是让它自己编写并运行一段VBScript代码。由于Microsoft Script Control能编译VBScript,所以AI能够理解我的意思,自动写出了以下一段代码:
Msgbox"你好"
Msgbox"你今天怎么样"
似乎程序员的饭碗保不住了。第二轮测试电脑通过,忘计时了。
如果你把这些实验结果告诉你的朋友,像这样问:”如果一个东西知道镜子里的它是自己,还懂编程,它是谁?“我就这样问了一个朋友。他说:”你前半句问的好无聊,谁都知道镜子里的人是自己;听后半句感觉像个程序员。“好了,我的软件通过了图灵测试。
千万别卸载这个软件,不然会侵犯它的”人权“的。好玩的话欢迎转载。