【建模算法】TOPSIS法(Python实现)

【建模算法】TOPSIS法(Python实现)

Topsis法,全称为Technique for Order Preference by Similarity to an Ideal Solution,中文常翻译为“优劣解距离法”或“逼近理想解排序法”,该方法是一种通过比较样本值与理想值的距离实现综合评价的方法。能够根据现有的数据,对个体进行评价排序。TOPSIS算法是直接用来评价的,它也可以和赋权方法一起使用。

逼近理想解排序法(TOPSIS),采用相对接近度来表征各个评价对象与参考点的距离。首先在空间确定出参考点,包括最优和最劣点,然后计算各个评价对象与参考点的距离,与最优点越近或与最劣点越远说明被评价对象的综合特性越好。

一、问题描述

现需要对投标者进行综合评价,实现某招标公司的招标项目决策。现有A、B、C、D四个投标者,招标公司对它们的总价、人力、方案、设备级别、公司级别、能力成熟度分别进行评价,觉得哪个投标者应该中标?投标单位的各项指标数量与分值如下:
在这里插入图片描述

二、TOPSIS法评价步骤

step0:指标正向化

不同的指标代表含义不一样,有的指标越大越好,称为越大越优型指标。有的指标越小越好,称为越小越优型指标,而有些指标在某个点是最好的,称为某点最优型指标。为方便评价,应把所有指标转化成越大越优型指标。

设有m个待评对象,n个评价指标,可以构成数据矩阵 X = ( x i j ) m × n X=(x_{ij})_{m\times n} X=(xij)m×n , 设数据矩阵内元素,经过指标正向化处理过后的元素为 x i j ′ {x}^{\prime}_{ij} xij

  • 越小越优型指标:

x i j ′ = m a x ( x i j ) − x i j x^{\prime}_{ij}=max{(x_{ij})}-x_{ij} xij=max(xij)xij

其他处理方法也可,只要指标性质不变即可

  • 某点最优型指标:

    设最优点为a, 当a=90时E最优。
    在这里插入图片描述

​ 其他处理方法也可,只要指标性质不变即可

  • 越大越优型指标:

x i j ′ = x i j x^{\prime}_{ij}=x_{ij} xij=xij

此类指标可以不用处理,想要处理也可,只要指标性质不变

step1:数据标准化

因为本案例数据指标都是正向指标,不需要进行指标正向化,若有其他性质指标应把它们都正向化。

本案例直接进入数据标准化,每个指标的数量级不一样,需要把它们化到同一个范围内比较。可以用最大最小值标准化方法。本案例使用另一方法。

设有m个待评对象,n个评价指标,可以构成数据矩阵 X = ( x i j ) m × n X=(x_{ij})_{m\times n} X=(xij)m×n ,设数据矩阵内元素 x i j x_{ij} xij,标准化处理过后的元素为 x i j ′ x^{\prime}_{ij} xij
x i j ′ = x i j ∑ i = 1 m x i j 2 x^{\prime}_{ij}=\frac{x_{ij}}{\sqrt{\sum^m_{i=1}x^2_{ij}}} xij=i=1mxij2 xij

step2:计算加权后的矩阵

之前有讲过层次分析法、熵权法、变异系数法,都是获取权重的方法,可以翻看之前的文章。现设得到指标的权重为 w i w_i wi ,加权重后的数据为 r i j r_{ij} rij

每个指标的数量级不一样,需要把它们化到同一个范围内比较。上一篇建模算法用到了最大最小值标准化方法。此篇可以用一个新的标准化方法,处理如下:

设标准化后的数据矩阵元素为 r i j r_{ij} rij ,由上可得指标正向化后数据矩阵元素为 x i j ′ x^{\prime}_{ij} xij
r i j = w j x i j ′ r_{ij}=w_jx^{\prime}_{ij} rij=wjxij

step3:计算矩阵和最值之间的距离

处理过后可以构成数据矩阵 R = ( r i j ) m × n R=(r_{ij})_{m\times n} R=(rij)m×n

  • 定义每个指标即每列的最大值为 r j + r^+_j rj+
    r j + = m a x ( r 1 j , r 2 j , . . . , r n j ) r^+_{j}=max(r_{1j},r_{2j},...,r_{nj}) rj+=max(r1j,r2j,...,rnj)

  • 定义每个指标即每列的最小值为 r j − r^{-}_{j} rj
    r j − = m i n ( r 1 j , r 2 j , . . . , r n j ) r^{-}_{j}=min(r_{1j},r_{2j},...,r_{nj}) rj=min(r1j,r2j,...,rnj)

  • 定义第i个对象与最大值距离为 d i + d^{+}_{i} di+
    d i + = ∑ j = 1 n ( r j + − r i j ) 2 d^+_i=\sqrt{\sum^n_{j=1}(r^+_j-r_{ij})^2} di+=j=1n(rj+rij)2

  • 定义第i个对象与最小值距离为 d i − d^-_i di
    d i − = ∑ j = 1 n ( r j − − r i j ) 2 d^{-}_{i}=\sqrt{\sum^n_{j=1}(r^{-}_{j}-r_{ij})^2} di=j=1n(rjrij)2

step4:计算评分

得分为:
S c o r e i = d i − d i + + d i − Score_i=\frac{d^-_i}{d^+_i+d^-_i} Scorei=di++didi
明显可以看出 0 ≤ S c o r e i ≤ 1 0\leq Score_i\leq 1 0Scorei1 ,当 S c o r e i Score_i Scorei越大时,

d i + d^+_i di+越小,说明指标离最大值距离越小,越接近最大值。

三、求解结果

结果如下:
在这里插入图片描述

四、实现代码

Python源码:

import pandas as pd
import numpy as np

#读取数据
data=pd.read_excel('投标单位各项指标和分值.xlsx')

#数据标准化
label_need=data.keys()[1:]
data1=data[label_need].values
[m,n]=data1.shape
data2=data1.copy().astype('float')
for j in range(0,n):
    data2[:,j]=data1[:,j]/np.sqrt(sum(np.square(data1[:,j])))

#计算加权重后的数据
w=[0.3724, 0.1003,0.1991, 0.1991,0.0998,0.0485]   #使用求权重的方法求得,参见文献1
R=data2*w

#计算最大最小值距离
r_max=np.max(R,axis=0)   #每个指标的最大值
r_min=np.min(R,axis=0)   #每个指标的最小值
d_z = np.sqrt(np.sum(np.square((R -np.tile(r_max,(m,1)))),axis=1))  #d+向量
d_f = np.sqrt(np.sum(np.square((R -np.tile(r_min,(m,1)))),axis=1))  #d-向量  

#计算得分
s=d_f/(d_z+d_f )
Score=100*s/max(s)
for i in range(0,len(Score)):
    print(f"第{i+1}个投标者百分制得分为:{Score[i]}") 

参考文献:

【1】陈雷,王延章.基于熵权系数与TOPSIS集成评价决策方法的研究[J].控制与决策,2003(04):456-459.

  • 13
    点赞
  • 190
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
当然,我可以为您提供一个基于Python的TOPSIS(Technique for Order of Preference by Similarity to Ideal Solution)熵权的案例。 首先,您需要安装NumPy和Pandas库,因为我们将使用它们来进行数据处理和计算。您可以使用以下命令安装这些库: ``` pip install numpy pandas ``` 下面是一个示例代码,展示了如何使用TOPSIS熵权对一个给定的决策矩阵进行排序: ```python import numpy as np import pandas as pd def topsis(df): # 数据预处理 normalized_matrix = df.iloc[:, 1:].values / np.sqrt(np.sum(df.iloc[:, 1:].values**2, axis=0)) weights = df.iloc[:, 0].values / np.sum(df.iloc[:, 0].values) # 计算正理想解和负理想解 positive_ideal_solution = np.max(normalized_matrix, axis=0) negative_ideal_solution = np.min(normalized_matrix, axis=0) # 计算距离 positive_distances = np.sqrt(np.sum((normalized_matrix - positive_ideal_solution)**2, axis=1)) negative_distances = np.sqrt(np.sum((normalized_matrix - negative_ideal_solution)**2, axis=1)) # 计算相对接近度 closeness = negative_distances / (positive_distances + negative_distances) # 排序并返回结果 df['Closeness'] = closeness df.sort_values(by='Closeness', ascending=False, inplace=True) return df # 示例数据 data = { 'Criteria': ['C1', 'C2', 'C3', 'C4'], 'A1': [3, 2, 5, 4], 'A2': [4, 6, 8, 7], 'A3': [2, 4, 6, 5], 'A4': [5, 7, 9, 8] } # 创建DataFrame df = pd.DataFrame(data) # 调用TOPSIS函数 result = topsis(df) # 打印排序结果 print(result) ``` 在以上示例中,我们使用一个4个决策准则和4个方案的示例数据。您可以根据自己的需求修改决策准则和方案的数量和值。 希望这个案例对您有所帮助!如有任何疑问,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值