![](https://img-blog.csdnimg.cn/direct/9a912c9519b54daab3d098937c90315b.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI
文章平均质量分 91
致力于普及人工智能知识、分享前沿技术动态的栏目。无论你是技术新手还是行业专家,这里都有适合你的深度内容。我们的目标是通过深入浅出的文章、专家访谈和实用教程,帮助你理解AI的基本原理和应用场景。
西土瓦110
物联网从业者
展开
-
AI算法10-反向传播算法Back Propagation | BP
BP算法是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。反向传播要求有对每个输入值期望得到的已知输出,来计算损失函数的梯度。因此,它通常被认为是一种监督式学习方法,虽然它也用在一些无监督网络(如自动编码器)中。它是多层前馈网络的Delta规则的推广,可以用链式法则对每层迭代计算梯度。反向传播要求人工神经元(或“节点”)的激励函数可微。原创 2024-07-10 16:54:18 · 631 阅读 · 0 评论 -
AI算法09-遗传算法Genetic Algorithm | GA
遗传算法(Genetic Algorithm, GA)是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。其主要特点是直接对结构对象进行操作,不存在求导和函数连续性的限定;具有内在的隐并行性和更好的全局寻优能力;采用概率化的寻优方法,不需要确定的规则就能自动获取和指导优化的搜索空间,自适应地调整搜索方向。遗传算法以一种群体中的所有个体为对象,并利用随机化技术指导对一个被编码的参数空间进行高效搜索。原创 2024-07-09 10:49:34 · 507 阅读 · 0 评论 -
AI算法08-粒子群算法Particle swarm optimization | PSO
鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子在N维空间的位置表示为矢量Xi=(x1,x2,…粒子群算法通过设计一种无质量的粒子来模拟鸟群中的鸟,粒子仅具有两个属性:速度和位置,速度代表移动的快慢,位置代表移动的方向。每个粒子在搜索空间中单独的搜寻最优解,并将其记为当前个体极值,并将个体极值与整个粒子群里的其他粒子共享,找到最优的那个个体极值作为整个粒子群的当前全局最优解,粒子群中的所有粒子根据自己找到的当前个体极值和整个粒子群共享的当前全局最优解来调整自己的速度和位置。Vi 是粒子的速度;原创 2024-07-08 14:13:34 · 913 阅读 · 0 评论 -
AI算法07-人工神经网络Artificial Neural Network | ANN
人工神经网络(ANN)或连接系统是由构成动物大脑的生物神经网络模糊地启发的计算系统。神经网络本身不是算法,而是许多不同机器学习算法的框架,它们协同工作并处理复杂的数据输入。此类系统通过考虑示例“学习”执行任务,通常不用任何特定于任务的规则编程。例如,在图像识别中,他们可能通过分析手动的示例图像来学习识别包含猫的图像标记为“猫”或“没有猫”,并使用结果来识别其他图像中的猫。他们在没有任何关于猫的先验知识的情况下这样做,例如,他们有毛皮,尾巴,胡须和猫般的面孔。原创 2024-07-08 11:12:20 · 885 阅读 · 0 评论 -
AI算法06-受限玻尔兹曼机Restricted Boltzmann machine | RBM
玻尔兹曼机是一大类的神经网络模型,但是在实际应用中使用最多的则是受限玻尔兹曼机(RBM)。受限玻尔兹曼机(RBM)是一个随机神经网络(即当网络的神经元节点被激活时会有随机行为,随机取值)。它包含一层可视层和一层隐藏层。在同一层的神经元之间是相互独立的,而在不同的网络层之间的神经元是相互连接的(双向连接)。在网络进行训练以及使用时信息会在两个方向上流动,而且两个方向上的权值是相同的。但是偏置值是不同的(偏置值的个数是和神经元的个数相同的),受限玻尔兹曼机的结构如下。原创 2024-07-05 14:54:54 · 699 阅读 · 0 评论 -
AI算法05-前馈神经网络Feedforward Neural Network | FNN
前馈神经网络(Feedforward Neural Network, FNN)是神经网络中最基本和经典的一种结构,它在许多实际应用场景中有着广泛的使用。在本节中,我们将深入探讨FNN的基本概念、工作原理、应用场景以及优缺点。前馈神经网络是一种人工神经网络,其结构由多个层次的节点组成,并按特定的方向传递信息。与之相对的是递归神经网络,其中信息可以在不同层之间双向传递。结构特点: 由输入层、一个或多个隐藏层和输出层组成。信息流动: 信息仅在一个方向上流动,从输入层通过隐藏层最终到达输出层,没有反馈循环。原创 2024-07-04 14:26:06 · 1070 阅读 · 0 评论 -
AI算法04-自组织映射神经网络Self-Organizing Map | SOM
在上一篇中,我们提到最终的学习率是由学习率*优胜领域的影响,也有一些资料是把两者分开的,学习率就是一个递减的函数(学习率可以参考上面优胜邻域半径的设定形式,可选形式类似),而优胜邻域也是t的递减函数,只不过我们队优胜邻域内的点进行更新罢了。对SOM算法的一些修正,由于SOM算法不能提供对输入数据的股友分布的可信表示,其促使了对算法的修正和新的自组织算法的发展,如修改竞争过程,在竞争过程中加入以概率方式获胜,修改更新过程,主要是调整领域函数内每个神经元权值向量更新规则,控制特征映射的放大性质。原创 2024-07-04 13:22:34 · 908 阅读 · 0 评论 -
AI算法02-循环神经网络Recurrent Neural Network | RNN
它能有效的处理序列数据。比如:文章内容、语音音频、股票价格走势…之所以他能处理序列数据,是因为在序列中前面的输入也会影响到后面的输出,相当于有了“记忆功能”。但是 RNN 存在严重的短期记忆问题,长期的数据影响很小(哪怕他是重要的信息)。于是基于 RNN 出现了 LSTM 和 GRU 等变种算法。长期信息可以有效的保留挑选重要信息保留,不重要的信息会选择“遗忘”原创 2024-07-03 11:03:02 · 795 阅读 · 0 评论 -
AI算法03-长短期记忆网络–Long short-term memory | LSTM
长短期记忆网络——通常被称为LSTM,是一种特殊的RNN,能够学习长期依赖性。由 Hochreiter 和 Schmidhuber(1997)提出的,并且在接下来的工作中被许多人改进和推广。LSTM 在各种各样的问题上表现非常出色,现在被广泛使用。LSTM 被明确设计用来避免长期依赖性问题。长时间记住信息实际上是 LSTM 的默认行为,而不是需要努力学习的东西!所有递归神经网络都具有神经网络的链式重复模块。在标准的 RNN 中,这个重复模块具有非常简单的结构,例如只有单个 tanh 层。原创 2024-07-03 11:20:40 · 225 阅读 · 0 评论 -
AI算法01-卷积神经网络CNN
卷积神经网络–CNN 最擅长的就是图片的处理。它受到人类视觉神经系统的启发。能够有效的将大数据量的图片降维成小数据量能够有效的保留图片特征,符合图片处理的原则目前 CNN 已经得到了广泛的应用,比如:人脸识别、自动驾驶、美图秀秀、安防等很多领域。原创 2024-07-02 17:43:00 · 567 阅读 · 0 评论