这篇文章是我对人工智能的探索,与现在主流的观点不同,仅供参考。
首先把神经元网络简化成图1的样子。神经元里边可以储存信息,x是输入神经元的数据,x’是神经元里边储存的数据。Δ是差的绝对值的和,最后,y取一次函数,当Δ=0时,y=1,当Δ=3时,y=0。Δ=0表示输入值与记忆值完全相等,此时y应该为1,表示激活。
经典神经元网络把数据储存在连接上,即连接的权;在我的看法中,数据储存在神经元内部,且一个神经元可以储存多个数据,用x’,x"等区分。对应的y’,y"等,取最大值作为y的输出。
网络规模扩大后,加权成了必须的,避免神经元之间过多的影响。给Δ的各项乘一个a,a是介于0到1的小数,或是非0即1的。
有二次学习,即确定a的值以后,把介于0到1的小数,转化成非0即1的整数,过程大约是一个四舍五入,小于0.5的变成0,大于等于0.5的变成1。经过这样的转换,网络结构就确定了,然后进行二次学习,确定x’的值。