数学建模:评价与决策 - 2 TOPSIS法

目录

步骤

例题:

将原始矩阵正向化

 正向化矩阵标准化

计算得分并归一化

熵权法确定权重对topsis改进

熵权法的计算步骤

判断正向化、标准化后矩阵是否有负数

 计算每列指标中各样本的概率

计算信息熵、信息效用值

 熵权法的原理

信息量

 信息熵


步骤

例题:

 

将原始矩阵正向化

指标类型:

 指标正向化:将所有的指标转化为极大型(用到了的话,在论文中要提到)

极小型的正向化

中间型指标

区间型

 正向化矩阵标准化

各评价指标之间标准化(矩阵的行是n个被评价对象、列是m个评价指标),目的是消除量纲影响

计算得分并归一化

计算评分的公式:

 带权重的指标:\omega 之和 = 1、

(权重可以通过层次分析法熵权法确定)
(层次分析法主观因素多、熵权法是一种客观赋权方法)

熵权法确定权重对topsis改进

熵权法的计算步骤

判断正向化、标准化后矩阵是否有负数

       要利用熵权法,则正向化、标准化后的矩阵不能有负数(因为概率不能为负),有负数则将正向化后的矩阵按下图红框公式重新标准化:

 计算每列指标中各样本的概率

计算信息熵、信息效用值

信息效用值越大、信息熵越小、信息量越多、权重越大

(信息熵衡量的是事件的不确定度,
    信息量越多 不确定度当然越小,
    信息量越多 当然该信息越重要 权重也越大)

 熵权法的原理

信息量

       熵权法是一种客观赋权方法,从数据本身得到权重

       依据的原理: 指标的变异程度(可理解为方差/标准差)越小,所反映的信息量也越少,其对应的权值越低

       信息量的度量:概率
       
事件发生概率越小、包含信息量越多;
       事件越可能发生、信息量越少

事件的某情况发生的概率与其信息量关系:负对数

 信息熵

    发生概率p越小、信息量-ln(p)越大、信息熵越小
(信息熵衡量的是不确定性,信息量大了不确定性当然小)

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值