![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能算法
文章平均质量分 91
桑桑在路上
微信搜一搜【梓莘】关注这个正在成长的程序员,目前从事java后端开发工作,想转数据分析方向,期望得到大家的指点。
zero-->hero理性+理智。记住一句话:越努力,越幸运。犯其至难,图其至远。努力规划,实现自我。↖(^ω^)↗
展开
-
【人工智能算法】受大自然启发的算法之交叉和突变
本文要点:演化算法;拼接交叉;重复基因;改组突变;扰动突变。演化算法有许多,并且大多数算法都利用演化算子,例如适应度函数、选择、精英、交叉和突变。根据你选择的演化算法,这些演化算子的实现会有所不同。遗传算法(Genetic Algorithm,GA);遗传编程(Genetic Programming,GP);基于人的遗传算法(Human Based Genetic Algorithm,HBGA);粒子群优化(Particle Swarm Optimization,PSO);蚁群优原创 2021-03-12 16:40:29 · 917 阅读 · 1 评论 -
【人工智能算法】受大自然启发的算法之种群、计分和选择
本文重点:种群精英计分选择选择算法的可伸缩性理解种群种群即居住在一个地方的一群特定种类的人或动物。在机器人工智能中,种群是解决问题的一组潜在方法,这些潜在解属于同一种类,因为他们解决相同的问题。有时候,解种群中的成员将分为不同的物种,但是仍然将这些成员归为同一种群。初始种群种群规模通常不会随着演化算法的发展而改变。种群规模是一个硬性限制。例如,如果你指定500个人,那么总会保持500个人。我们创建一个初始种群,其计数等于该种群规模,构成初始种群的初始潜在解将被随机生成。这些最初的随机解原创 2021-03-12 11:19:28 · 2175 阅读 · 0 评论 -
【人工智能算法】算法基础之线性回归
本文重点:线性回归广义线性模型 (Generalized Linear Model, GLM)链接函数(link function)线性回归线性回归的宗旨是构建一个相对比较简单的线性模型,将输入映射为输出。对x和Y两个变量,很容易写出它们对应的线性函数:Y=mx+b,m为斜率,b为截距。该函数之所以被称为“线性函数”,是因为其函数图像画出来就是一条直线。在同一个坐标系下,曲线代表的则是非线性函数。一个线性回归模型只对应一个变量即称“单变量的”。单变量回归模型一个常见的示例就是鞋码和身高的对应关原创 2021-03-10 11:19:40 · 1210 阅读 · 0 评论 -
【人工智能算法】算法基础之离散优化[旅行商问题 背包问题]
本文重点:离散VS连续旅行商问题背包问题旅行商问题旅行商问题(Traveling Salesman Problem, TSP)是一个难以用传统迭代算法求解的NP困难问题,因此经常用模拟退火算法来解决,同时旅行商问题也是最著名的计算机科学问题之一。旅行商问题简要说明旅行商问题描述的是有一个旅行商,在指定的多个城市中,从任意城市开始,要分别经过其他城市并最终回到起点城市,求解其最短路径的方案,其中除起点城市外的其他城市能且只能经过一次。旅行商问题还有好些个变体,其中有些变体允许多次经过同一城市原创 2021-03-10 10:44:19 · 1535 阅读 · 0 评论 -
【人工智能算法】算法基础之优化训练
本文重点:爬山算法模拟退火算法Nelder-Mead算法爬山算法爬山算法实现起来比贪心随机算法要复杂一些,但贪心随机算法的劣势之一在于无法进行细调。使用贪心随机算法时,以一个随机生成的向量值作为长期记忆,一旦找到表现更好的随机向量,立刻替换原来的长期记忆,而无法通过细调来得到可能就在附近的最优解,只能听天由命。爬山算法则是在当前向量值的基础上进行细调,是名副其实“爬山”的过程。假设你被随机扔在崇山峻岭的某个半山腰,而你的目的是爬到附近区域的最高峰,你肯定会看看自己附近一步以内的位置,看看哪个原创 2021-03-09 17:36:25 · 848 阅读 · 1 评论 -
【人工智能算法】算法基础之迈向机器学习
本文重点:多项式拟合贪心随机训练径向基函数径向基函数网络模型多项式系数所谓多项式,其实就是由变量和常系数组成的数学表达式,其中的运算只有加法、减法、乘法和正整数的幂运算比如f(x)=2x2+4x+6f(x)=2x^2+4x+6f(x)=2x2+4x+6接受一个值x,返回一个值y,输入、输出向量的大小均为1,式中三个系数分别为:2,4,6。其中,各系数均乘以变量x的幂项,系数2乘以x的平方,系数4乘以x,系数6则乘以x的0次幂,也就是常数1,表现出来就是一个单纯的常数项。上述函数的3个系原创 2021-03-09 16:38:42 · 191 阅读 · 0 评论 -
【人工智能算法】算法基础之误差计算
本文重点:监督学习方差和误差(Sum of Squares Error, SSE)均方误差(Mean Squares Error, MSE)方均根误差(Root Mean Squares, RMS)数据集对于监督学习来说,误差计算非常重要,监督学习的训练集由成对的向量构成,其中输入向量与其预期输出向量一一对应。方差和误差方差和误差(SSE)是一种相当简单的误差计算方法,在部分机器学习算法中得以应用。一个很高的方差和意味着预期输出与实际输出之间存在很大的差异,训练算法的原理实际上就是减小方原创 2021-03-09 11:38:10 · 2329 阅读 · 0 评论 -
【人工智能算法】算法基础之K均值聚类算法
本文重点主要有:聚类质心非监督训练K均值算法理解训练集多组观测值通常被划分为称作“训练集”的大型集合,这些数据都被用于训练机器学习算法。“训练”指的是通过调整算法的内部状态,使得机器学习算法的输出符合预期输出的过程。按所使用的训练集不同,机器学习算法宽泛地分为两类:监督学习和非监督学习。在非监督学习过程中,你仅仅向算法提供向量形式的输入数据,但却不设置预期输出;聚类算法就是一种非监督学习。非监督学习以鸢尾花的数据集为例来了解监督学习和非监督学习的过程。这个数据集由与鸢尾花花瓣和花萼尺原创 2021-03-05 17:23:09 · 2087 阅读 · 0 评论 -
【人工智能算法】算法基础之随机数生成
本文重点:伪随机数生成线性同余生成法(Linear Congruential Generator ,LCG)进位乘数法(Multiply With Carry,MWC)梅森旋转算法蒙特卡洛方法伪随机数生成算法的概念要理解伪随机数生成算法需要先了解几个重要概念种子(seed)“种子”决定了你会得到什么样的随机数序列,同时也决定了内部状态的初始值。对于给定的种子,你总会得到相同的随机数序列;而另一方面,几乎每一个互不相同的种子都会生成一个不同的随机数序列。内部状态(intern原创 2021-03-04 13:55:19 · 1863 阅读 · 1 评论 -
【人工智能算法】算法基础之距离度量
本文重点主要有:向量欧式距离曼哈顿距离切比雪夫距离理解向量向量本质上就是一维数组。这里需要注意不要将向量的“维度”与待求解问题的维度混淆,即使待求解问题有10个输入通道,它依然是一个向量。向量始终是一维数组。在人工智能算法中,向量通常用来存储某个具体实例的数据。计算向量距离两个向量之间的距离代表着二者的相似程度。欧式距离欧式距离度量是基于两个向量间实际的二维距离的,也就是说,如果把两个数据点画在纸上的话,欧式距离就是用直尺测量处理的两点间的偏差(距离)。二维距离的理论基础是毕达哥拉原创 2021-03-04 11:29:15 · 779 阅读 · 1 评论