虽然我承认,因为我希望创造出高水平的AI,所以我鼓捣神经网络,但是,您可以将神经网络视为不仅仅是人类大脑的人工表示,而且作为一个数学构造。
例如假设你有一个函数y = f(x)或更抽象y = f(x1, x2, ..., xn-1, xn),神经网络本身作为功能,甚至是一组功能,同时在大的输入,并产生一些输出[y1, y2, ..., yn-1, yn] = f(x1, x2, ..., xn-1, xn)
此外,它们不是静态的,而是可以继续适应和学习,并最终推断(预测)有趣的事情。他们的抽象性甚至可能导致他们想出独特的解决方案来解决尚未被认识的问题。例如TDGammon程序学会了玩西洋双陆棋并击败世界冠军。这位世界冠军表示,该节目发挥了他从未见过的独特的终极游戏。 (如果你问我考虑神经网络的复杂性,这真的很棒)
然后当你看到递归神经网络(即可以有内部反馈回路,或者将输出管回输入时,同时消耗新的输入)可以解决更多有趣的问题,并映射更复杂的功能。
简而言之,神经网络就像一个非常非常抽象的高维函数,能够映射/学习非常有趣的事情,否则将无法编程编程。例如,计算大量物体上的总净重力所需的能量是激烈的(您必须为每个物体和每个物体计算它),但一旦神经网络学习如何绘制它们,他们就可以做这些复杂的计算,可以运行在指数或组合?时间在多项式时间。只要看看你的大脑在你梦中时处理物理数据,空间数据/图像/声音的速度有多快。这是神经网络的潜在计算能力。并且还要提到他们存储数据的方式也非常聪明(在synaptics模式中,即存储器)