熵值法权重确定与MATLAB实现教程

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

简介:熵值法是一种基于信息熵理论的权重分配方法,广泛应用于多目标决策问题中。它通过计算信息熵来量化不确定性,以此确定各因素的权重。本教程详细介绍了熵值法确定权重的原理与步骤,并提供MATLAB源码以供学习和实践。用户将通过数据预处理、信息熵计算、权重系数确定及验证等环节,掌握如何使用MATLAB实现熵值法。 熵值法确定权重,熵值法确定权重步骤,matlab源码.zip

1. 熵值法权重分配概述

在众多决策分析和评价领域中,权重分配对于准确评估和排序各项指标具有关键作用。熵值法作为一种客观赋权的方法,以其科学性、合理性和实用性,在处理多指标决策问题时被广泛应用。通过分析数据本身包含的信息量,熵值法能够有效确定各指标的权重,以此减少主观因素的干扰,增强评价结果的客观性。本章将简要介绍熵值法权重分配的基本概念,为理解后续内容提供一个概览。

2. 熵值法基本原理解释

2.1 熵的概念及其在权重分配中的意义

2.1.1 熵的定义与性质

熵在信息论中是一个衡量系统无序程度的度量,其概念源于热力学。熵的概念最早由德国物理学家克劳修斯在19世纪中叶提出,用于描述系统能量分布的均匀性。在信息论领域,克劳德·香农将熵引入,用以衡量信息的不确定性。具体而言,熵是系统可能状态的概率分布函数,反映了系统状态的不确定性。

熵的数学表达通常用下面的公式定义:

H(x) = -∑(P(x) * log(P(x)))

这里的H(x)代表随机变量x的熵,P(x)是x取特定值的概率。从数学上看,熵是一个期望值,取值为非负数,且如果所有可能事件发生的概率相同,则熵达到最大值。这表明系统中信息的不确定性最高。

在权重分配过程中,熵值越高的特征意味着该特征包含的信息量越少,其对整体决策的影响越小。反之,熵值越低的特征,其不确定性越小,信息量越大,对整体决策的影响越大。因此,可以通过计算特征的熵值,进而确定它们在决策过程中的权重。

2.1.2 熵在信息论中的角色

在信息论中,熵用来衡量信息量的大小。一个信息源的熵值越高,其产生的信息的不确定性越大,相应的信息量也就越大。香农熵(信息熵)在衡量信息内容的丰富程度时,可以提供一种量化的指标。

信息熵的几个重要性质包括:

  • 非负性:信息熵的值为非负。
  • 上界性:系统的熵值有一个理论最大值,这通常对应于系统达到完全不确定性的状态。
  • 可加性:对于两个独立的信息源,它们的信息熵是可以相加的。
  • 极值性:当系统中的所有可能事件发生的概率相等时,熵达到最大。

在权重分配中,信息熵为每个特征的重要性和影响程度提供了数学上的度量。通过计算出每个特征的熵值,可以对特征进行排序,并根据它们的熵值大小分配相应的权重。

2.2 熵值法的数学模型与理论基础

2.2.1 熵值法的数学表达

熵值法是一种基于熵概念的客观赋权方法。它利用各评价指标(特征)的熵值来确定指标的权重,从而对评价对象(如项目、产品或服务)进行综合评价。

熵值法的基本数学模型包括以下几个步骤:

  1. 数据标准化处理:将原始数据转换为无量纲的相对值,以消除不同指标量纲的影响。
  2. 计算信息熵:根据公式计算每个指标的信息熵。
  3. 计算差异系数:熵值越小,差异系数越大,代表该指标提供给决策者的有效信息越多。
  4. 确定指标权重:通过差异系数计算得到每个指标的权重。

用公式表示为:

w_i = (1 - E_i) / (m - ∑E_i)

这里的 w_i 表示第 i 个指标的权重, E_i 表示第 i 个指标的熵值, m 是指标的总数。

2.2.2 熵值法的理论优势与局限性

熵值法作为一种客观赋权的方法,具有以下理论优势:

  • 客观性:不需要主观判断,完全基于数据本身计算权重。
  • 科学性:依据信息熵原理,充分挖掘数据内在的不确定性信息。
  • 精确性:权重的计算结果更接近实际的系统状态。

然而,熵值法也存在一些局限性:

  • 可能导致权重分配不合理:如果某些指标的原始数据值非常接近,则其熵值会非常大,导致该指标的权重被过小估计。
  • 忽略了指标之间的相关性:熵值法在计算权重时,没有考虑各指标之间的相关性,而实际中指标间可能相互影响。
  • 数据敏感性:对异常值或噪声数据较为敏感,可能会影响权重的计算结果。

理解熵值法的理论优势与局限性有助于在实际应用中更加合理地利用该方法进行权重分配。在实际应用时,建议结合专家意见和实际情况,对熵值法得出的权重进行适当调整和修正。

第三章:熵值法权重确定步骤

3.1 权重确定的前处理流程
3.1.1 数据收集与整理

在实施熵值法之前,需要对评价指标的数据进行详尽的收集和整理。这一步骤确保了后续计算的准确性和有效性。数据收集是根据研究目的和评价目标,收集与评价对象相关的各种定量和定性数据。

数据整理则涉及数据的预处理,包括数据清洗(去除错误和不一致的数据)、数据归一化(将数据缩放到一定的范围,如0-1之间)、和数据类型转换(将非数值型数据转换为数值型数据)。数据收集与整理工作是确保后续分析有效性的基础。

3.1.2 数据的预处理方法

数据的预处理是处理数据集,使其适合于熵值法权重计算的关键步骤。具体步骤包括:

  • 数据清洗:排除错误数据,如缺失值、异常值或不合理的数据。
  • 数据标准化:根据不同指标的特性,将数据归一化到统一的度量标准上。
  • 数据离散化:对于连续数据,有时需要离散化处理,以便于信息熵的计算。

常见的预处理方法有:

  • Z-score标准化(又称标准化变换),使得数据均值为0,标准差为1。
  • 最小-最大标准化,将数据按比例缩放到一个指定的区间,通常是[0, 1]。
  • 对数转换,减少数据的偏态。

不同的预处理方法可能会对熵值法的结果产生影响。因此,在选择预处理方法时,需要考虑数据的特点和评价目标。

3.2 熵值法权重计算的详细步骤
3.2.1 熵值法计算流程概述

熵值法计算流程包括以下几个核心步骤:

  1. 数据矩阵的标准化处理。
  2. 计算每个指标的比重。
  3. 计算每个指标的信息熵值。
  4. 计算每个指标的差异系数。
  5. 计算每个指标的权重。

整个计算流程以数据矩阵为基础,通过数学方法逐步进行计算,最终得出每个指标的权重。

3.2.2 权重的具体计算方法

详细的计算方法如下:

假设有一组评价对象的评价指标数据矩阵 X ,其维度为 m × n ,其中 m 为评价对象的数量, n 为评价指标的数量。

  • 数据标准化:将数据矩阵 X 转换为 Y ,使得每个指标的值都在[0, 1]区间内。
Y = (x_ij - min(x_ij)) / (max(x_ij) - min(x_ij))

这里的 x_ij 是第 i 个评价对象的第 j 个指标值。

  • 计算每个指标的比重 p_ij
p_ij = y_ij / ∑y_ij
  • 计算每个指标的熵值 e_j
e_j = -k * ∑(p_ij * log(p_ij)) / log(m)

其中 k 为常数,通常取 1 / log(m)

  • 计算每个指标的差异系数 g_j
g_j = 1 - e_j
  • 计算每个指标的权重 w_j
w_j = g_j / ∑g_j

这里的 w_j 就是第 j 个指标的权重。

3.2.3 权重结果的解读与应用

通过上述计算步骤,最终得到的权重值 w_j 表示了各个指标在总体评价中的重要性。权重越大,表示该指标提供的信息越多,对总体评价结果的影响越大。

解读权重时,需要关注以下几个方面:

  • 指标权重的大小:权重较大的指标对评价结果有更大的影响。
  • 权重分布的合理性:如果大部分指标的权重都比较接近,则可能需要重新考虑评价指标体系的设计。
  • 权重与实际业务的关联:权重结果需要与实际业务逻辑相符合,否则可能需要调整评价指标或方法。

应用权重时,可以通过加权求和的方式计算每个评价对象的综合得分,为决策提供依据。例如,对于第 i 个评价对象,其综合得分 S_i 可以表示为:

S_i = ∑(w_j * y_ij)

这里的 w_j 是第 j 个指标的权重, y_ij 是经过标准化处理后的第 i 个评价对象的第 j 个指标值。通过对所有评价对象进行类似计算,可以得出它们的综合得分排名,进而进行决策分析。

至此,通过熵值法对评价指标进行权重计算,并对结果进行合理解读,可以为决策者提供数据支持,帮助作出更加客观和科学的决策。

3. 熵值法权重确定步骤

3.1 权重确定的前处理流程

3.1.1 数据收集与整理

在进行熵值法权重计算之前,首先需要收集相关数据。数据收集是一个关键步骤,它直接影响到后续分析的质量。数据来源可以是各类统计资料、行业报告、调查问卷等。收集到的数据往往是原始的、未经处理的,因此需要通过整理来转换成适合分析的形式。

整理数据通常包括清洗(去除重复、错误的数据),格式化(确保数据格式一致),和汇总(对数据进行初步的统计和分析)。这些工作有助于形成结构化的数据集,为进一步的数据分析打下基础。整理过程中,还要保证数据的真实性和可靠性,避免因为数据质量问题影响最终的权重分配结果。

3.1.2 数据的预处理方法

数据预处理是将原始数据转变为可以用于分析处理的数据的过程。在熵值法中,数据预处理尤其重要,因为该方法对数据的分布和量纲非常敏感。常见的数据预处理方法有以下几种:

  • 归一化 :将数据缩放到[0,1]区间内,便于不同量纲的数据进行比较。
  • 标准化(Z-score标准化) :通过减去均值并除以标准差来消除量纲的影响,使得数据转化为标准正态分布形式。
  • 离散化 :将连续数据转换为离散数据,便于处理和理解。

在处理的过程中,还需要注意缺失值和异常值的处理。缺失值可以通过均值、中位数等方法进行填补,异常值则需要根据数据情况来决定是删除还是调整。

3.2 熵值法权重计算的详细步骤

3.2.1 熵值法计算流程概述

熵值法作为一种客观赋权的方法,其主要思想是通过计算各个评价指标的熵值来确定各指标的权重。熵值法的计算流程大致分为以下几个步骤:

  1. 构建决策矩阵并进行标准化处理。
  2. 计算每个指标下各方案的贡献度。
  3. 计算各指标的熵值。
  4. 确定各指标的差异系数(即信息熵的冗余度)。
  5. 计算各指标的权重。

3.2.2 权重的具体计算方法

在熵值法中,权重的具体计算方法涉及到一系列的数学公式。以下是计算过程的一个简化版本:

  • 设有m个待评价的方案,n个评价指标,构建决策矩阵X。

  • 对决策矩阵进行标准化处理,得到标准决策矩阵R:

$$ r_{ij} = \frac{x_{ij}}{\sum_{i=1}^{m}x_{ij}} $$

  • 计算各指标的熵值(e_j):

$$ e_j = -k\sum_{i=1}^{m}r_{ij}\ln(r_{ij}) $$

其中,(k = \frac{1}{\ln(m)})。

  • 计算各指标的差异系数(g_j),(g_j = 1 - e_j)。

  • 最后计算各指标的权重(w_j):

$$ w_j = \frac{g_j}{\sum_{j=1}^{n}g_j} $$

3.2.3 权重结果的解读与应用

得到权重后,需要对结果进行解读,以理解各指标对于整个评价体系的重要性。权重值的大小直接反映了指标的相对重要程度,权重值越大,该指标在评价中的作用越重要。

在实际应用中,将这些权重系数应用到相应的评价或决策模型中,可以更科学地对多个方案进行评价和比较。权重的引入使得评价结果更加合理和有说服力,有助于决策者做出更好的决策。

在熵值法的应用中,还需要考虑到该方法的一些局限性,如对数据的要求较高,处理过程可能需要专业软件或编程支持等。因此,在实际操作中可能需要结合定性分析和其他定量方法,才能得到更为全面和准确的评价结果。

3.3 实际案例分析

为了更深入地理解熵值法权重的计算和应用,我们可以通过一个具体的案例来进行分析。

案例描述

假设有一个项目组的绩效评价问题,有五个团队成员(方案)和四个评价指标(如工作量、质量、创新能力和团队协作能力)。决策矩阵如下:

| 评价指标 | 团队成员A | 团队成员B | 团队成员C | 团队成员D | 团队成员E | |----------|------------|------------|------------|------------|------------| | 工作量 | 4 | 5 | 3 | 6 | 2 | | 质量 | 3 | 4 | 3 | 2 | 5 | | 创新能力 | 2 | 3 | 5 | 5 | 1 | | 团队协作 | 5 | 3 | 4 | 2 | 3 |

权重计算

  1. 对决策矩阵进行归一化处理,得到标准决策矩阵。

  2. 计算各指标的熵值和差异系数。

  3. 根据差异系数计算各指标的权重。

结果分析

根据计算结果,我们可以分析出哪些指标对于团队成员的绩效评价更为重要。例如,如果创新能力的权重最高,那么在团队成员的绩效评价中应该给予创新能力更多的关注。

通过本案例的分析,我们可以看到熵值法在实际应用中是如何操作的,并且理解权重计算对于决策支持的意义。通过实际的数据和计算过程,熵值法的优势和局限性可以被更清楚地展示出来。

这不仅有助于加深对熵值法权重确定步骤的理解,也为运用该方法解决实际问题提供了有益的参考。

4. MATLAB源码实现教程

4.1 MATLAB简介及其在数据分析中的应用

4.1.1 MATLAB环境与工具箱概述

MATLAB(Matrix Laboratory)是一个高性能的数值计算环境和第四代编程语言。由美国MathWorks公司发布,它集数学计算、算法开发、数据可视化于一体,广泛应用于工程计算、控制设计、信号处理、图像处理等领域。MATLAB的工具箱(Toolbox)是其一大特色,覆盖了诸如统计分析、神经网络、优化算法、数字图像处理等众多专业领域,为特定的学科研究提供了强大的算法支持。

4.1.2 MATLAB在数据分析中的优势

MATLAB之所以在数据分析领域深受欢迎,主要得益于以下几个方面的优势:

  • 高效的数据处理能力 :MATLAB提供了一系列内置函数和工具箱,能有效处理矩阵运算和向量运算,这使得在处理大规模数据时,MATLAB具有出色的表现。
  • 可视化功能 :MATLAB的绘图功能强大,用户可以轻松地生成二维和三维图形,这在数据可视化分析中非常有帮助。
  • 便捷的接口 :MATLAB可以与C、C++、Java、Python等语言方便地进行接口对接,这为需要与其他系统集成的应用场景提供了便利。
  • 丰富的工具箱 :针对不同的应用需求,MATLAB拥有种类繁多的工具箱,例如Financial Toolbox、Image Processing Toolbox等,用户可以根据自己的研究需要选择合适的工具箱进行使用。

4.2 MATLAB中熵值法权重计算源码解析

4.2.1 源码结构与功能模块划分

一个典型的MATLAB源码文件通常包括以下几个部分:

  • 初始化部分 :设置算法参数、读取数据等。
  • 数据预处理模块 :包括数据标准化、归一化等。
  • 计算熵值法权重的核心算法模块 :执行信息熵的计算、权重的计算。
  • 结果展示模块 :将计算结果以图表或文本形式展示给用户。

以下是一个简化的源码结构示例:

% 初始化部分
% 数据读取与预处理
% 熵值法权重计算
% 结果展示与分析

4.2.2 源码中的关键算法与步骤实现

在这一小节中,我们将详细探讨熵值法权重计算的核心算法及其实现步骤。

首先,我们需要编写一个函数用于计算信息熵。信息熵是衡量数据离散程度的一个重要指标,其数学公式如下:

H(X) = -sum(p(x) * log(p(x)))

这里, p(x) 表示数据分布的概率。

在MATLAB中,我们可以这样实现信息熵的计算函数:

function H = entropy(X)
    % 计算概率密度函数
    p = X / sum(X);
    % 避免除以零
    p(p == 0) = eps;
    % 计算信息熵
    H = -sum(p .* log(p));
end

在熵值法中,另一个核心计算是确定权重。权重计算通常涉及多个步骤,包括数据标准化处理、计算信息熵、确定差异系数、计算权重系数等。

首先,我们需要进行数据标准化处理,使数据具有可比性。在MATLAB中可以使用如下代码进行Z-score标准化:

function Z = zscore(X)
    % 计算平均值和标准差
    mu = mean(X);
    sigma = std(X);
    % 进行标准化处理
    Z = (X - mu) / sigma;
end

接下来,我们可以使用一个脚本来实现整个熵值法权重计算流程。这里只展示核心逻辑部分的代码:

% 假设原始数据矩阵为rawData
% 数据标准化
standardizedData = zscore(rawData);

% 数据归一化处理
normalizedData = normalizedData ./ sum(normalizedData);

% 计算每个指标的信息熵
entropies = zeros(1, size(normalizedData, 2));
for i = 1:size(normalizedData, 2)
    entropies(i) = entropy(normalizedData(:, i));
end

% 计算差异系数
differences = 1 - entropies;

% 计算权重
weights = differences / sum(differences);

% 结果展示
disp('权重系数为:');
disp(weights);

以上代码段描述了从数据标准化处理到最终权重确定的全部步骤。需要注意的是,这些代码块仅作为示例,实际应用中可能需要进一步的调整和优化以适应具体问题。

5. 数据标准化处理

5.1 数据标准化的必要性

数据标准化是数据分析、机器学习以及统计学中的一项基础且关键的预处理步骤。通过对数据进行标准化处理,可以消除不同指标间量纲的影响,提升数据质量,为后续的分析提供准确的前提条件。

5.1.1 数据标准化的定义

数据标准化,也称为数据归一化,是将数据按比例缩放,使之落入一个小的特定区间。在处理不同尺度或量纲的数据时,标准化能够将数据统一到一个标准的形式,从而提高分析过程的准确性和可靠性。

5.1.2 数据标准化的目的与方法

标准化的目的是为了消除数据的量纲影响和数值大小差异,以确保各个指标能够在同一个尺度上进行比较和分析。常见的标准化方法包括:

  • Z-score标准化:通过减去数据的平均值再除以标准差,将数据转化成均值为0,标准差为1的分布形式。
  • 最大最小值标准化:将数据按比例缩放,使之落在0和1之间,即最小值变为0,最大值变为1。
  • 其他方法还包括平均数标准化、中位数标准化等。

数据标准化处理对于大多数机器学习算法尤其重要,因为它能够提升算法的收敛速度,提高模型的准确度。

5.2 各类标准化方法详解

在实际操作中,选择合适的标准化方法能够对数据的分布和算法性能产生显著影响。下面是几种常用的标准化方法。

5.2.1 Z-score标准化

Z-score标准化,又称标准分数法,是最常用的标准化方法之一。其计算公式如下:

Z = (X - μ) / σ

其中, X 是原始数据, μ 是数据的均值, σ 是标准差。通过这种方式,标准化后的数据具有0的均值和1的标准差,这有助于消除变量之间量纲的影响。

实际操作步骤:
  1. 计算原始数据集的均值( μ )和标准差( σ )。
  2. 对每个数据点减去均值,并除以标准差。
  3. 结果为一个新的数据集,其均值为0,标准差为1。

5.2.2 最大最小值标准化

最大最小值标准化方法通过线性变换将原始数据映射到[0,1]区间,计算公式为:

X_{std} = (X - X_{min}) / (X_{max} - X_{min})

其中, X 是原始数据, X_{min} X_{max} 分别是数据集中的最小值和最大值。这个方法简单易行,但缺点是如果数据集中存在异常值,可能会对标准化后的结果产生负面影响。

实际操作步骤:
  1. 找出数据集中的最大值( X_{max} )和最小值( X_{min} )。
  2. 应用最大最小值标准化公式对每个数据点进行变换。
  3. 标准化后的数据集中,所有的数据值将被限制在0到1的范围内。

5.2.3 其他常用的数据标准化技术

除了上述两种标准化方法外,还有其他几种常用的标准化技术,例如:

  • 平均数标准化:通过减去数据的平均值,使标准化后的数据集的均值为0。
  • 中位数标准化:通过减去数据的中位数,使标准化后的数据集中位数为0。
  • 小数定标标准化:通过除以10的k次幂,使标准化后的数据位于[0,1)区间。

每种方法在不同的应用场景中都有其独特的优势,选择合适的标准化方法将依赖于具体问题的性质和分析目标。

数据标准化是确保数据分析准确性和有效性的关键步骤。通过选择合适的标准化方法,可以将数据转化为更适合分析的格式,从而提升数据挖掘、模型建立等环节的质量和效率。

6. 信息熵计算方法与权重系数计算公式

6.1 信息熵的计算公式详解

信息熵是衡量信息量大小的一个重要指标,其计算公式是信息论中一个核心概念。信息熵的高低可以反映数据的不确定性或信息的丰富程度。下面详细介绍信息熵的数学表达式及其计算流程。

6.1.1 信息熵的数学表达式

在信息论中,信息熵被定义为随机变量不确定性的度量。对于一个离散随机变量(X),其概率分布为(P(X = x_i) = p_i),其中(i = 1, 2, ..., n),那么该随机变量的信息熵(H(X))可以表示为:

[ H(X) = -\sum_{i=1}^{n} p_i \log_2 p_i ]

这里,(p_i)是随机变量(X)取值(x_i)的概率,且通常要求(p_i > 0)。当所有(p_i)均等时,熵达到最大值。

6.1.2 信息熵的计算流程

计算信息熵的基本步骤如下:

  1. 确定数据集中的所有可能结果及其概率。
  2. 使用上述信息熵的数学表达式,计算每个可能结果的信息含量,即(p_i \log_2 p_i)。
  3. 将所有结果的信息含量加总,得到整个数据集的信息熵。

代码实现信息熵的计算可能如下:

import numpy as np

def calculate_entropy(data):
    # 计算每个类别的概率
    probabilities = [np.sum(data == label) / len(data) for label in np.unique(data)]
    # 计算信息熵
    entropy = -np.sum([p * np.log2(p) if p != 0 else 0 for p in probabilities])
    return entropy

# 示例数据
data = np.array([1, 1, 1, 0, 0, 0, 1, 0, 1])

# 计算信息熵
data_entropy = calculate_entropy(data)
print(f"信息熵为: {data_entropy}")

通过上述步骤和代码实现,我们可以计算出给定数据集的信息熵,进而利用这个值进行后续的权重分配。

6.2 权重系数的计算与验证

权重系数的确定是熵值法的核心部分。它反映了各评价指标在整体评价中的重要程度。

6.2.1 权重系数的推导与计算步骤

权重系数的推导基于信息熵的计算。对于一个评价系统,假设包含了(m)个评价指标和(n)个评价对象,那么权重系数(w_j)的计算步骤如下:

  1. 计算每个指标的信息熵值(E_j)。
  2. 计算每个指标的差异系数(g_j = 1 - E_j)。
  3. 计算每个指标的权重系数(w_j = \frac{g_j}{\sum_{j=1}^{m} g_j})。

6.2.2 权重系数合理性验证方法

权重系数的合理性验证是通过检查其对评价结果的影响来进行的。可以采用以下步骤:

  1. 根据计算出的权重系数对评价指标进行加权。
  2. 对加权后的评价结果进行分析,看是否与实际情况或预期目标相符。
  3. 如果结果有偏差,可能需要重新调整权重系数或检查原始数据的处理。

6.2.3 权重系数应用案例分析

在实际应用中,权重系数被广泛应用于多指标决策和评价系统。以下是一个简单案例:

假设有5个评价对象,每个对象有3个评价指标,计算得到的指标权重系数为(w_1, w_2, w_3)。我们可以使用这些权重系数来计算每个对象的综合得分:

[ Score_i = \sum_{j=1}^{3} w_j \times x_{ij} ]

其中,(x_{ij})表示第(i)个对象的第(j)个指标值。通过比较不同对象的综合得分,我们可以对它们进行排序或分类。

通过这个案例,我们可以看到权重系数如何直接影响评价结果,进而影响决策过程。

以上内容展示了信息熵的计算方法和权重系数的确定过程,以及如何将这些理论应用到实际案例中。在接下来的章节中,我们将继续探讨如何利用MATLAB等工具实现这些计算和分析步骤。

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

简介:熵值法是一种基于信息熵理论的权重分配方法,广泛应用于多目标决策问题中。它通过计算信息熵来量化不确定性,以此确定各因素的权重。本教程详细介绍了熵值法确定权重的原理与步骤,并提供MATLAB源码以供学习和实践。用户将通过数据预处理、信息熵计算、权重系数确定及验证等环节,掌握如何使用MATLAB实现熵值法。

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

function weights = EntropyWeight(R) R=[11362.52 0.09 0.16 0.46 248826.93 61764.00 1175.46 13945.94 0.09 0.12 0.46 366749.75 67492.00 2006.30 6494.10 0.09 0.18 0.46 575484.13 55450.00 3179.81 2786.58 0.09 0.37 0.46 240453.22 47127.00 1007.70 3652.31 0.09 0.31 0.46 75097.81 56304.00 327.20 6912.91 0.09 0.16 0.46 644265.29 62325.00 3026.29 2935.47 0.09 1.53 0.46 58023.36 36317.00 524.05 2391.79 0.09 0.50 0.46 85780.50 37608.00 648.44 7819.17 0.09 0.78 0.46 177058.92 33394.00 1017.59 1853.59 0.09 0.53 0.46 111322.02 38794.00 602.38 1808.17 0.09 0.57 0.46 190963.75 40598.00 602.52 2589.79 0.09 0.46 0.46 21279.54 42350.00 193.81 3376.00 0.09 0.47 0.46 36360.11 33247.00 186.12 2579.29 0.09 0.59 0.46 47103.23 35117.00 170.41 2619.82 0.09 0.54 0.46 39441.33 33878.00 173.00 1891.67 0.09 0.62 0.46 26745.35 35603.00 89.49 9801.85 0.09 0.54 0.33 46605.99 68322.00 477.37 2086.82 0.09 0.54 0.33 46392.12 59776.00 214.72 4778.78 0.09 0.54 0.33 46602.17 81910.00 476.95 3513.29 0.09 0.54 0.33 46524.19 59876.00 370.50 3403.71 0.09 0.54 0.33 46441.96 80160.00 276.55 1868.82 0.09 0.54 0.33 46337.36 65905.00 153.04 13158.74 0.09 0.54 0.33 46670.46 65627.00 793.26 14141.25 0.09 0.54 0.33 46726.57 65660.00 905.81 9218.84 0.09 0.54 0.33 46601.10 64136.00 706.10 12796.40 0.09 0.54 0.33 46687.52 59946.00 826.54 5986.84 0.09 0.54 0.33 46725.63 61338.00 932.11 4530.30 0.09 0.54 0.33 46532.35 53579.00 569.98 16752.88 0.09 0.54 0.33 50614.56 77166.00 7292.01 7057.39 0.09 0.54 0.33 46497.62 57925.00 517.08 5511.34 0.09 0.54 0.33 46540.33 59071.00 566.65 2281.52 0.09 0.54 0.33 46428.45 50660.00 443.35 34128.95 0.08 1.01 0.36 18758.94 21599.00 142.45 34741.39 0.08 1.01 0.36 18759.61 21599.00 142.45 24750.51 0.08 1.01 0.36 18757.34 21599.00 142.45 35925.81 0.08 1.01 0.36 18752.49 21599.00 142.45 24405.34 0.08 1.01 0.36 18756.66 21599.00 142.45 40710.14 0.08 1.01 0.36 18760.75 21599.00 142.45 46971.87 0.08 1.01 0.36 18756.38 21599.00 142.45 33221.32 0.08 1.01 0.36 18755.51 21599.00 142.45 24023.14 0.08 2.69 0.36 12855.70 21661.00 170.99 30590.70 0.08 0.76 0.36 32293.26 23120.00 229.68 15652.29 0.08 1.24 0.36 21935.16 21937.00 124.78 14916.38 0.08 0.98 0.36 11623.95 21577.00 88.29 22973.37 0.08 0.71 0.36 7892.65 19603.00 69.68 21458.16 0.08 0.44 0.36 11196.69 20781.00 80.61 19155.98 0.08 0.44 0.36 10356.69 19741.00 102.79 18941.57 0.08 0.48 0.36 15122.14 21256.00 141.40 20675.96 0.08 3.18 0.36 18487.01 22390.00 192.74 22612.26 0.08 0.49 0.36 22001.18 20367.00 164.87 18318.47 0.08 0.97 0.36 26521.92 22325.00 163.90 33541.61 0.04 0.85 0.35 33855.71 24735.00 292.51 27040.05 0.04 0.66 0.35 18876.03 24520.00 233.79 20489.79 0.03 0.85 0.31 28068.29 20545.00 178.80 27140.40 0.09 0.88 0.36 24801.21 20298.00 166.90 35900.02 0.09 0.91 0.36 21534.93 20050.00 155.00 27251.66 0.09 0.93 0.36 18269.22 19803.00 143.11 15143.84 0.10 0.96 0.36 15008.83 19555.00 131.21 16351.72 0.09 1.17 0.36 14168.86 18531.00 105.00 17837.20 0.09 0.90 0.36 16056.77 19988.00 147.15 25991.64 0.09 0.75 0.36 11501.53 21044.00 147.86 13648.25 0.09 0.72 0.36 10888.90 18835.00 113.01 12772.75 0.09 0.87 0.36 11375.24 16883.00 111.60 41941.21 0.09 1.13 0.36 11873.96 22350.00 183.13 10432.26 0.09 0.41 0.36 17618.56 17581.00 94.02 35564.24 0.09 0.62 0.36 17875.61 17845.00 93.64 20762.02 0.09 0.82 0.36 18136.38 18110.00 93.27 22089.70 0.09 1.03 0.36 18398.57 18374.00 92.89 18384.29 0.09 1.23 0.39 18656.43 18639.00 92.51 16824.37 0.09 1.44 0.39 18919.83 18903.00 92.14 13857.14 0.09 0.51 0.39 10358.63 19212.00 88.65 8712.90 0.09 0.61 0.39 3931.13 18264.00 41.97 10800.31 0.09 0.52 0.39 9950.91 18665.00 47.97 9815.43 0.09 0.71 0.39 2976.86 17366.00 25.69 8765.56 0.09 0.82 0.39 10452.28 21363.00 76.10 8437.01 0.09 0.83 0.41 6894.72 16625.00 40.63 14200.33 0.09 1.53 0.41 6617.49 18893.00 67.65 15355.90 0.09 1.34 0.41 5375.72 20796.00 66.54 19694.06 0.09 1.27 0.41 11843.69 22027.00 115.03 14524.43 0.09 1.30 0.41 13185.32 21891.00 93.58 13915.71 0.09 0.95 0.41 6578.46 20627.00 75.59 15002.81 0.09 0.83 0.41 3888.06 21750.00 48.92 26875.82 0.09 0.84 0.41 5516.55 22427.00 57.36 17270.00 0.09 0.86 0.41 7131.54 23104.00 65.82 28461.40 0.09 0.87 0.41 8752.89 23780.00 74.28 17462.28 0.09 0.88 0.41 10377.55 24457.00 82.74 9584.35 0.09 0.89 0.41 12001.96 25134.00 91.21 20661.31 0.09 1.03 0.41 27222.89 23300.00 157.11 13223.84 0.09 1.22 0.41 13171.20 23778.00 87.25 24004.08 0.09 1.19 0.41 17142.58 24447.00 119.48 11964.47 0.09 1.16 0.41 21120.92 25117.00 151.71 31521.15 0.09 1.13 0.41 25090.65 25786.00 183.94 25748.12 0.09 1.10 0.41 29062.75 26456.00 216.16 64098.05 0.09 1.08 0.32 33039.35 27125.00 248.39 40595.71 0.09 1.05 0.32 37016.57 27794.00 280.62 92481.81 0.09 1.02 0.32 40982.50 28464.00 312.85 42747.30 0.09 0.99 0.32 44960.00 29133.00 345.07 30212.83 0.09 1.44 0.32 34264.08 27574.00 266.78 38703.82 0.09 0.98 0.32 23858.67 26679.00 231.36 55126.42 0.09 1.53 0.32 20080.43 28890.00 323.43 27766.68 0.09 1.13 0.32 33748.45 26726.00 284.99 35325.51 0.03 1.01 0.32 35028.65 28329.00 430.80 64724.68 0.07 1.75 0.32 52218.37 29861.00 778.65 25183.91 0.09 1.47 0.32 42626.49 28675.00 569.06 31261.57 0.09 1.19 0.32 33039.59 27490.00 359.47 20184.92 0.09 0.91 0.32 23453.39 26304.00 149.89 13603.83 0.09 0.95 0.32 16285.64 25481.00 94.11 30375.86 0.09 0.89 0.32 26044.01 31134.00 137.81 11886.79 0.09 1.07 0.32 26671.14 27409.00 108.27 13504.87 0.09 1.12 0.32 30758.77 27671.00 161.75 37169.03 0.09 0.97 0.32 12626.07 30010.00 85.48 31276.35 0.04 1.61 0.38 41929.52 31565.00 299.70 43333.13 0.05 1.01 0.34 45599.36 32398.00 445.10 20406.04 0.09 1.05 0.36 40563.31 29869.00 382.17 34238.25 0.09 1.10 0.36 35531.95 27340.00 319.24 14120.59 0.09 1.14 0.36 30495.98 24811.00 256.31 10873.24 0.09 1.18 0.36 25465.47 22282.00 193.38 14448.28 0.09 1.23 0.36 20431.18 19753.00 130.45 9076.50 0.09 1.27 0.36 15394.59 17224.00 67.55 8036.60 0.09 0.67 0.36 7758.83 11647.00 36.76 10114.31 0.09 0.55 0.36 17879.54 22059.00 102.86 6075.27 0.09 0.86 0.36 19239.31 14462.00 62.52 13764.62 0.09 0.91 0.36 19721.86 19919.00 84.36 11573.04 0.09 0.60 0.36 10486.33 19863.00 54.22 13626.06 0.09 2.52 0.36 10891.81 17190.00 68.84 10830.84 0.09 0.98 0.36 13608.16 19879.00 49.83 6841.56 0.09 1.01 0.36 20008.54 21020.00 65.39 10521.20 0.09 0.97 0.36 19015.13 16976.00 100.56 6037.35 0.09 1.14 0.36 23596.68 15138.00 53.59 9275.53 0.09 0.89 0.36 23308.27 19578.00 68.77 9057.86 0.09 1.17 0.36 11604.69 18721.00 42.75 8923.55 0.09 0.80 0.36 9537.00 17553.00 40.66 13761.91 0.09 0.90 0.36 21148.07 23724.00 79.90 21268.47 0.04 0.57 0.33 38793.99 25678.00 199.94 13363.37 0.04 0.66 0.31 56555.92 21081.00 245.14 14453.60 0.03 0.63 0.31 19953.36 18820.00 100.48 11829.70 0.05 0.81 0.31 25918.16 22456.00 117.61 42106.02 0.09 0.79 0.35 20710.88 23063.00 143.40 39036.31 0.09 0.77 0.35 15510.26 23671.00 169.20 17448.52 0.09 0.75 0.35 10312.59 24278.00 194.99 22126.41 0.09 0.75 0.35 17698.17 24370.00 155.29 20331.93 0.09 1.48 0.35 16303.14 24154.00 121.54 9421.45 0.09 0.73 0.35 13905.69 18593.00 38.50 15151.44 0.09 0.98 0.35 6178.98 20689.00 134.43 21301.02 0.09 0.70 0.35 16627.69 24393.00 140.47 12718.77 0.09 0.79 0.35 12064.65 22451.00 92.67 13941.15 0.09 0.66 0.35 9286.81 22364.00 73.81 16282.98 0.09 0.77 0.35 20645.03 21077.00 165.22 22383.11 0.09 0.81 0.35 3183.80 22771.00 84.82 17067.94 0.04 0.70 0.35 23174.98 23088.00 170.60 35053.31 0.06 0.74 0.35 63517.72 26003.00 406.74 28555.88 0.04 0.71 0.34 28140.10 24690.00 213.42 16641.66 0.03 0.76 0.37 25640.67 24302.00 215.61 16935.67 0.09 0.88 0.39 23386.75 22016.00 147.95 11584.39 0.09 1.00 0.39 21138.10 19730.00 80.30 10563.10 0.09 1.04 0.39 9866.77 14252.00 47.92 13502.05 0.09 0.97 0.39 9416.34 15026.00 40.86 10535.47 0.09 1.00 0.39 13169.64 17009.00 46.84 17123.04 0.09 1.01 0.39 21080.59 19711.00 92.63 10125.69 0.09 0.99 0.39 21605.53 17745.00 98.09 13593.04 0.09 1.20 0.39 19453.01 18648.00 122.12 9836.46 0.09 1.00 0.39 9859.09 17787.00 55.22 14690.64 0.09 1.30 0.39 19927.82 22880.00 88.20 13076.99 0.04 1.19 0.34 20086.00 17666.00 111.69 16422.92 0.09 1.59 0.33 16774.12 18830.00 109.92 17859.30 0.09 1.99 0.33 13468.03 19993.00 108.16 18747.08 0.61 2.40 0.33 10159.22 21157.00 106.40 15159.39 0.09 1.38 0.33 7830.20 17528.00 57.35 12845.10 0.09 2.45 0.33 13588.20 19032.00 76.58 9188.39 0.09 1.02 0.33 5956.94 16774.00 28.32 9036.53 0.09 1.29 0.33 14774.03 18745.00 83.16 6525.98 0.09 1.50 0.33 15053.83 17868.00 43.03 7644.43 0.09 1.28 0.33 30219.57 20374.00 49.37 13572.81 0.09 0.68 0.33 30130.54 19564.00 172.96 7907.85 0.09 1.62 0.33 13964.61 17662.00 54.00 8809.85 0.09 0.92 0.33 4204.58 16545.00 22.25 6884.81 0.09 0.63 0.33 4395.32 17906.00 41.94 8451.63 0.09 0.73 0.33 9975.39 17799.00 51.96 6860.03 0.09 1.47 0.33 12573.16 16592.00 62.02 17084.94 0.09 0.44 0.43 24736.75 20923.00 116.02 8757.34 0.09 0.44 0.43 11789.12 18564.00 56.52 11177.14 0.04 0.87 0.43 16002.85 17613.00 86.64 28221.33 0.03 1.12 0.43 26836.63 22040.00 198.69 21430.99 0.09 0.99 0.43 22229.78 22619.00 189.80 22511.88 0.09 0.87 0.43 17626.13 23198.00 180.91 38587.94 0.09 0.75 0.43 13019.17 23776.00 172.02 18652.20 0.09 0.63 0.43 8416.53 24355.00 163.13 26649.48 0.07 0.51 0.43 3808.58 24934.00 154.25 7903.55 0.09 0.76 0.43 9380.44 20937.00 114.25 15837.99 0.09 0.50 0.36 9487.30 24743.00 133.14 7446.30 0.09 0.69 0.36 15728.01 20089.00 130.47 28856.62 0.09 0.84 0.36 18659.60 14343.00 200.37 19235.99 0.09 0.79 0.36 27623.27 24992.00 212.31 11655.61 0.09 0.68 0.36 8179.83 17943.00 89.23 13067.49 0.09 0.91 0.36 14362.08 23357.00 215.03 15548.11 0.09 0.84 0.36 5396.09 12744.00 64.97 14707.39 0.09 0.84 0.36 13146.07 19238.00 96.00 13035.52 0.09 0.73 0.36 4508.10 15931.00 72.36 14001.60 0.09 0.69 0.36 9622.65 18250.00 96.76 6848.03 0.09 0.72 0.36 12581.10 20001.00 137.44 11884.95 0.09 0.71 0.36 10642.14 20372.00 114.32 39681.91 0.03 2.49 0.36 43859.16 26861.00 453.98 ] [rows,cols]=size(R);%计算原始指标数据矩阵的行列数 K=1/log(rows); %计算K值 P=zeros(rows,cols);%初始化矩阵 sumBycols=sum(R,1); for i=1:rows %进行循环 for j=1:cols P(i,j)=R(i,j)./sumBycols(1,j); end end lnPij=zeros(rows,cols); for i=1:rows for j=1:cols if P(i,j)==0 lnPij(i,j)=0; else lnPij(i,j)=log(P(i,j)); end end end Hj=-K*(sum(P.*lnPij,1)); % 计算熵值Hj weights=(1-Hj)/(cols-sum(Hj)); end
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值