决策智能
决策智能算法,工程架构,调优
意林飞笑
这个作者很懒,什么都没留下…
展开
-
遗传算法基本方法和流程
1.轮赌盘选择:按适应度值来计算选择概率比例,随机选择组成一定数量组成种群,同一个个体可能会被多次选中。5.锦标赛选择:随机选则一组个体进行对比选择适应度值最高个体放入种群,比赛规模越大优秀个体入选概率越高。2.计算适应度值:对每个个体计算适应度值包括后续经过选择、交叉和变异算子后新一代种群个体,2.随机抽样:按适应度值计算选择概率比例一次性选择一定数量组成种群。3.基于排序选择:按适应度值先进行排序,按排序再选择组成种群。4.适应度缩放:通过固定计算方法对适应度值进行映射,然后再选择。原创 2024-01-04 05:13:38 · 840 阅读 · 0 评论 -
随机森林算法原理及应用方法
方法:使用sklearn的随机分割数据集模块做数据集合分割,通过构造随机森林训练预测结果并使用sklearn计算预测准确率模块计算实际测试结果对比预测的准确率。是一种有监督学习算法,目的是降低方差,相比决策树能避免模型太大时过拟合,会小幅增加偏差和损失部分可解释性为代价,3.按照普通生成决策树方式进行构建决策树,如基于信息增益,信息增益率,基尼指数等方式。4.异常检测,对正常样本和异常样本进行区分,如发现信用卡欺诈,网络入侵等。1.随机森林由多棵决策树组成,可用于分类,回归和其他任务集成学习方法。原创 2023-12-15 06:23:32 · 580 阅读 · 0 评论 -
经典决策树算法
1.CART算法同时支持分类和回归问题处理,分类问题时使用基尼指数或基尼增益作为选择特征及分割点依据,对回归问题时CART使用均方误差或平均绝对误差作为特征选择和分割点依据。2.ID3算法生成为多元树,如S集合以属性A作为分割点,A属性值决定子集个数,主要作为分类决策树,不保证最优解,可能收敛于局部最优解。4.熵为衡量数据集不确定性大小,熵越高数据越混杂,信息增益为分割前后熵差指标,训练决策树时通过最大化信息增益选择最爱分割。输入训练数据和停止计算条件,递归分类切割生成完整二叉CART分类决策树,原创 2023-12-09 20:25:15 · 420 阅读 · 0 评论