个人学习笔记,课程为数学建模清风付费课程
目录
1.基于熵权法对Topsis模型的修正
层次分析法最大的缺点 :判断矩阵的确定依赖于专家,如果专家的判断存在主观性的话,会对结果产生很大的影响。(主观性太强)
因此我们采用熵权法
熵权法是一种客观赋权方法依据的原理: 指标的变异程度越小,所反映的信息量也越少,其对应的权值也应该越低。(客观 = 数据本身就可以告诉我们权重)(一种极端的例子:对于所有的样本而言,这个指标都是相同的数值,那么我们可认为这个指标的权值为0,即这个指标对于我们的评价起不到任何帮助)
2.如何度量信息量的大小
上面的小例子告诉我们: 越有可能发生的事情,信息量越少, 越不可能发生的事情,信息量就越多。怎么衡量事情发生的可能性大小? —— 概率
3.信息熵的定义
信息熵的本质:对信息量的期望值
4.熵越大信息量越大还是越小?
对于熵权法而言, 因为我们关注的是已有的信息,所以答案是越小。即 信息熵越大信息量越小
5.熵权法的计算步骤
5.1第一步
( 1 )判断输入的矩阵中是否存在负数,如果有则要重新标准化到非负区间(后面计算概率时需要保证每一个元素为非负数)
5.2第二步
(2)计算第j项指标下第i个样本所占的比重,并将其看作相对熵计算中用到的概率
5.3第三步
(3)计算每个指标的信息熵,并计算信息效用值,并归一化得到每个指标的熵权
6.熵权法背后的原理
熵权法是一种客观赋权方法依据的原理: 指标的变异程度越小,所反映的信息量也越少,其对应的权值也应该越低。(客观 = 数据本身就可以告诉我们权重)
我们可以用指标的标准差来衡量样本的变异程度,指标的标准差越大,其信息熵越小。
7.熵权法的讨论
熵权法的一个问题: 因为概率p
是位于
0‐1
之间,因此需要对原始数据进行标准化,我们应该选择哪种方式进行标准化呢?查看知网的文献会发现,并没有约定俗成的标准,每个人的选取可能
都不一样。但是不同方式标准化得到的结果可能有很大差异,所以说熵权法也是存在着一定的问题的。
8.熵权法的代码实现
function [W] = Entropy_Method(Z)
% 计算有n个样本,m个指标的样本所对应的的熵权
% 输入
% Z : n*m的矩阵(要经过正向化和标准化处理,且元素中不存在负数)
% 输出
% W:熵权,1*m的行向量
%% 计算熵权
[n,m] = size(Z);
D = zeros(1,m); % 初始化保存信息效用值的行向量
for i = 1:m
x = Z(:,i); % 取出第i列的指标
p = x / sum(x);
% 注意,p有可能为0,此时计算ln(p)*p时,Matlab会返回NaN,所以这里我们自己定义一个函数
e = -sum(p .* mylog(p)) / log(n); % 计算信息熵
D(i) = 1- e; % 计算信息效用值
end
W = D ./ sum(D); % 将信息效用值归一化,得到权重
end
% 重新定义一个mylog函数,当输入的p中元素为0时,返回0
function [lnp] = mylog(p)
n = length(p); % 向量的长度
lnp = zeros(n,1); % 初始化最后的结果
for i = 1:n % 开始循环
if p(i) == 0 % 如果第i个元素为0
lnp(i) = 0; % 那么返回的第i个结果也为0
else
lnp(i) = log(p(i));
end
end
end
9.运行结果
10.老师的建议
如果大家的论文要发表,别用熵权法,如果大家只是用这个方法进行比赛。那么可以随便用 因为这个方法总比你自己随意定义好