人工智能
我对人工智能的理解
知堂织韵
“公共命名空间”的作者,孤独的思考者。
展开
-
人工智能的等价形式
还有一种方法可以产生50%压缩率,同样看上图,记住一个最小值,当某一行计算到一半时,就已经超过了这个最小值,说明这一行剩下的部分没必要再计算了,可以跳过。人工智能有等价形式,它不需要训练,可以在得到输入X后,通过遍历每一个训练样本,计算得出距离最小的那一个,对应的输出就做为神经元网络的输出。类比图形格式,bmp, png, jpg,它们的压缩率分别是100%,50%,10%。一眼望去,最后一行是(8, 8, 9),所以,输出就是(2, 5)。经典的人工智能,采用“梯度下降法”,运算量很大,约是esp。原创 2024-06-07 15:46:40 · 283 阅读 · 0 评论 -
用三角函数模拟人工智能
经典的人工智能采用分层结构,本文尝试用三角函数来模拟。y=A1cos(w1x+θ1)+…+Ancos(wnx+θn)+b这个函数命名为y=K(n)(x)对于一个有3个输入、3个输出的函数,有y1=K(x1)+K(x2)+K(x3)y2=K(x1)+K(x2)+K(x3)y3=K(x1)+K(x2)+K(x3)一个K函数有3n+1个参数,这里有9个K函数,共有27n+9个参数。令n=2000,则有参数54009个。然后像经典人工智能一样,使用梯度下降法求解。原创 2022-11-17 11:35:05 · 623 阅读 · 0 评论 -
尝试不用图,只用字说清楚人工智能的基础原理
一个神经元,有多个输入,一个输出。令输入是x1,x2,x3,输出是y。y=sigmoid(wx+wx+wx+b)w是权重,b是偏移量。小括号里的部分对3个x进行“加权求和”。sigmoid函数是众多激励函数中最古老的一个,它的特点是,把负无穷到正无穷之间的值,映射到0到1之间。这么设计是为了模拟真实的神经元,上述3个x的值属于0到1的区间,加权求和之后,超出区间了。这时,用sigmoid函数“压缩”,让y回到0到1的区间。假设有2个这样的神经元,输入是x1,x2,x3,输出是y1,y2,它们构成一原创 2022-02-05 19:51:15 · 978 阅读 · 0 评论 -
函数图像的变换 与 解析式的变换 之关系
其实都是中学数学的内容,今天翻出来,复习一下。配合人工智能中的sigmoid函数讲解。①图像沿x轴正方向平移,则把x变成(x-a);沿x轴负方向平移,则把x变成(x+a)。②图像沿y轴正方向平移,则把y变成(y-a);沿y轴负方向平移,则把y变成(y+a)。③图像沿x轴方向变宽,则把x变成(x/b);沿x轴方向变窄,则把x变成(bx)。④图像沿y轴方向变高,则把y变成(y/b);沿y轴方向变矮,则把y变成(by)。其中,a>0,b>1。怎样记忆呢,有什么规律呢?可以用“守恒”的..原创 2022-01-27 17:03:00 · 3878 阅读 · 0 评论 -
人工智能,快速训练猜想
深度学习需要很长的时间训练,本文尝试缩短训练时间。有一个理论,说,只要一个隐藏层就够了,前提是隐藏层中的节点数量要够多。设有N个训练样本,则隐藏层设置N个节点,适当的设置输入层到隐藏层的参数,使得对于某个训练样本,对应的节点亮起来。适当的设置隐藏层到输出层的参数,使得输出正确。这样的训练过程很快!且对应于已知的训练样本,正确率为100%?...原创 2021-05-04 08:49:35 · 83 阅读 · 0 评论 -
人工智能,并行网络
对神经元网络进行训练,正确率95%,还剩5%的训练样本无法拟合。此时,再建一个神经元网络,只训练那5%的样本。最后,把两个网络并行放置,网络1或网络2的输出作为总的输出,可否?原创 2020-11-29 09:33:52 · 288 阅读 · 2 评论 -
人工智能,ANN的等价形式
ANN是人工神经网络。关于ANN的原理,在此不再赘述。聊一聊它的等价形式,作为一种探索。ANN分为多层,但本质上它是一个函数,输入X,输出Y,内部的隐藏层忽略掉。实际上,对于计算机科学家来说,ANN也是一个黑箱,内部原理并不明确。ANN的等价形式,用泰森多边形,如图:这个图的特点是,每个多边形内部,都是到特征点距离最近的点的集合。把特征点看做ANN的输入,对于和训练数据一模一样的输入,哈希表可以很好的工作。对于和训练数据有一定偏差的输入,先计算它在哪个多边形里,再取值。具体步骤,对于输入的值X,依原创 2020-11-17 13:03:51 · 378 阅读 · 0 评论 -
人工智能基础,我的看法
这篇文章是我对人工智能的探索,与现在主流的观点不同,仅供参考。首先把神经元网络简化成图1的样子。神经元里边可以储存信息,x是输入神经元的数据,x’是神经元里边储存的数据。Δ是差的绝对值的和,最后,y取一次函数,当Δ=0时,y=1,当Δ=3时,y=0。Δ=0表示输入值与记忆值完全相等,此时y应该为1,表示激活。经典神经元网络把数据储存在连接上,即连接的权;在我的看法中,数据储存在神经元内部,且一个神经元可以储存多个数据,用x’,x"等区分。对应的y’,y"等,取最大值作为y的输出。...原创 2020-11-09 15:47:44 · 758 阅读 · 0 评论 -
人工智能猜想之8位浮点数
训练神经元网络时,用的似乎是64位浮点数,是否有这个必要呢?已知,人眼的分辨能力,电脑上的颜色分为红绿蓝三原色,每种颜色有256种可能,占8比特,是否可以猜测,神经元的分辨力就是8比特。这样一来,训练神经元网络的任务似乎可以简单一点了。8比特小数,从0.000到1.000,(待续)...原创 2020-11-06 07:02:26 · 479 阅读 · 0 评论