自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 基于分解的MOEA三种常用的聚合方法。

的多目标优化算法。在给定权重偏好或者参考点信息的情况下,分解方法通过线性或者非线性方式将原多目标问题各个目标进行聚合,得到单目标优化问题,并利用单目标优化方法求得单个Pareto最优解。下面介绍分解策略中三类常用的聚合函数。

2024-06-01 23:08:10 1684 1

原创 基于代理模型的筛选准则和基于代理模型的局部搜索方法

因为预筛准则决定哪些个体可以被精确评估,这会影响算法的探索和开发,进而影响算法的收敛速度。2)在种群中每个父代个体的邻域建立一个局部代理模型,如果模型极值的预测适应度值优于父代个体,则该极值将成为新的父代来完成交叉和变异操作。1)在种群中的每个个体的邻域,用已评估的邻域样本点建立两种不同的局部代理模型,并用信赖域方法在该模型上进行搜索。如果模型的极值优于该个体,则用该极值替代该个体,以促进对该局部区域的开发。全局代理模型或局部代理模型的极值往往用来替代种群的全局最优,来引导算法向更优的区域进行搜索。

2024-06-01 21:45:10 635

原创 代理模型(集成)

由于不同类型的代理模型适合不同特性的问题,集成模型可用于提高代理模 型对不同类型问题的预测精度,或用于获取预测的不确定性。Bagging (Boostrap Aggregating) 是由 Breiman 于 1996 年提出,并行训练多个弱学习器 ,对于分类问题,采用投票的方法,得票最多子模型的分类类别为最终的类别;在新的数据集中,初级学习器的输出被用作次级学习器的输入特征,初始样本的标记仍被用作次级学习器学习样本的标记。对于分类问题,采用投票的方法,得票最多子模型的分类类别为最终的类别;

2024-05-28 11:16:24 469

原创 径向基函数(RBF)代理模型

径向基函数技术则是20世纪80年代后期,Powell在解决“多变量有限点严格(精确)插值问题”时引入的,目前径向基函数已成为数值分析研究中的一个重要领域。假设F(X)的形式,然后求出w就知道这个函数是什么样子的了,即得到这个插值得曲面了。可以看成是一个定点,X是一个泛源,所以他主要和X和Xp距离有关系(就是欧几里得距离即范数),所以他应该是个旋转对称函数。阶矩阵,W和d分别表示系数向量和期望输出向量,可以写成下面的形式。可逆,大量的基函数都满足这个定理,所以上式成立,最后得到了模型。

2024-05-27 14:40:11 1063

原创 克里金代理模型Kriging

由于 Kriging 模型不仅能对未知点的适应值进行预测,还能对其预测的不确定性进行估计。因此,其被广泛应用于代理模型辅助进化算法中,以解决昂贵单目标或多目标优化问题。使用下面的公式来估计未知点。的预测适应值和预测方差(也就是与测试和相关程度)。的适应值:(均值+正态分布求解适应度值))的重要程度(也就是每个维度的权重)。个包含输入和输出的训练数据集(带入似然函数中可以消除未知参数。2似然函数只有两个未知参数。最大化似然函数可以得到。)是均值为零和方差为。’)之间的相关函数。×1 维的输出矩阵;

2024-05-27 14:25:58 1936

原创 多项式响应面 (PRS) 代理模型

PRS通常用于工业过程优化、产品开发和质量改进等领域,其目的是在尽可能少的实验次数内,通过建立响应变量和一个或多个影响因子(自变量)之间的关系,来优化这些影响因子(找最优解,和下面的代理模型不一定完全一样看你要用代理模型干什么)。然后用最小二乘法(矩阵形式的)去估计出未知参数(利用误差平方和最小,对矩阵求导),去拟合模型,最后得到一个代理模型。由(2)和(3)可以导出等价于(1)等式的矩阵形式。从原始函数(就是已知的样本或者真实的数据)中提取的样本数(N)应等于或大于系数 n(为什么不知道,有论文证明)。

2024-05-27 13:28:52 2118

原创 SVM代理模型

支持向量机(SVM): 是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane)与逻辑回归和神经网络相比,支持向量机在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。(所有的样本点,有其他的方法不用带入所有的样本点,例如SMO),最终求得平面方程。),使得离平面最近的点,能够最远(离决策面最远)。

2024-05-26 23:37:04 573

机器学习1:绪论(频率派和贝叶斯派推到过程即原理)

在统计学和机器学习中,对概率的估计是一个核心问题。在解决这个问题上,主要有两个学派:频率派和贝叶斯派。本文将对这两种学派的基本观点和方法论进行解析。 在机器学习的实践中,选择合适的学派和方法对于模型的性能和准确性至关重要。理解这两种学派的基本原理和方法,可以帮助我们更好地设计和解释机器学习模型。

2024-06-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除