基本概念:
对比:层次分析和Topsis的权重都是主观得到的
熵权法是一种客观的赋权方法,可以依靠数据本身得出权重
依据的原理:指标的变异程度小,所反映的信息量也越少,其对应的权值也越低(如果某项指标的值全部相等,则该指标在综合评价中不起作用)
基本步骤:
- 数据标准化:
首先把原始矩阵正向化(topsis法有学)得到
X = np.array([[9, 0, 0, 0], [8, 3, 0.9, 0.5], [6, 7, 0.2, 1]])
再进行正向化矩阵标准化(每个值除以所在列的值的平方和,最后再开方)
# 对矩阵进行标准化处理,得到标准化矩阵Z
Z = X / np.sqrt(np.sum(X*X, axis=0))
- 计算概率矩阵p(归一化)
p = x / np.sum(x) # 对第i个指标归一化处理
- 计算熵权:
e = -np.sum(p * mylog(p) / np.log(n))
所有代码:
import numpy as np
# 定义一个自定义的对数函数mylog,处理数组中的零元素
def mylog(p):
n = len(p)
lnp = np.zeros(n)
for i in range(n):
if p[i] == 0:
lnp[i] = 0
else:
lnp[i] = np.log(p[i])
return lnp
# 定义一个指标矩阵
X = np.array([[9, 0, 0, 0], [8, 3, 0.9, 0.5], [6, 7, 0.2, 1]])
# 对矩阵进行标准化处理,得到标准化矩阵Z
Z = X / np.sqrt(np.sum(X * X, axis=0))
print("标准化矩阵 Z = ")
print(Z)
n, m = Z.shape
D = np.zeros(m)
# 计算每个矩阵的信息效用值
for i in range(m):
x = Z[:, i]
p = x / np.sum(x) # 对第i个指标归一化处理
e = -np.sum(p * mylog(p) / np.log(n))
D[i] = 1 - e
# 根据信息效用计算各指标的权重
W = D / np.sum(D) # 归一化得到权重
print("权重 W = ")
print(W)