自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 第十二讲 预测模型之灰色预测模型

首先灰色预测模型是一个微分方程模型,也就是说,有一种建模方法是建立一个微分方程来求解作为模型,灰色预测模型就是为了找到对应的微分方程来进行求解然后进行预测,至于方程的基本形式,只能说,这是邓聚龙教授在进行预测工作时尝试进行微分方程建模,经过一系列研究得出,单数列微分模型是最合适的,然后就是建模过程中对数据的一系列处理(非常重要)也是教授研究出来的,至于为什么要这么处理,想要完全了解现在也不太现实。可以看出解是x(1)的形式,而只要想到x(1)序列是累加构造出来的,就可以通过累减得到原始数据序列的形式。

2023-12-29 01:47:45 385 1

原创 第十讲 聚类算法

DBSCAN算法很有意思,它的思想就是随机选取中心点,指定一个半径和半径内最少点的个数,指定过后开始以中心点为圆心指定半径作圆,作出的圆中的点的个数若不少于指定的最少点的个数,则将圆中的点归为一类,只要圆中圈到点的个数不少于最小值就不断以圆中边界点为圆心向外延伸。最后会产生噪声点,噪声点就是无法进入能被归为一类圆中的点。聚类算法呈现成图的形式是非常直观的,但二维图上只包含了两个指标,当有多个指标时我一时无法理解其实无非就是n个指标对应为n维空间以后无法直观想象而已,最终还是欧式距离。

2023-12-24 17:52:09 317

原创 第八讲 图论和迪杰斯特拉算法

最后从5和4向外延伸都到了6,很显然,走0 1 3 6得到的距离是最短的是11。现在我们要求出0到6的最短路径,将每个点与其自身的距离设为0,初始时任意连个点之间的距离设为无穷,该算法的第一步就是找出0点与其直接相连的两个点之间的距离分别是多少,根据图中可以看出0和1 2相连并且权重分别是5 2,下一步是将与0点距离最近的点,即2,纳入到已访问点的集合中,{0,2},(目前未访问点的集合是{1,3,4,5,6}),然后我们继续找与0点距离最近的点,从与2 直接相连的点和与0直接相连的点中找。

2023-12-21 14:16:01 931

原创 第八讲 回归分析

线性回归的方程中的u,即误差项,包含了所有未添加到回归模型中的变量,如果这个误差项就像上面一样存在与已有变量相关的情况,即内生性,那就会导致回归系数的估计不准确,因此,我们要尽可能的使这个误差项与已有的x均不相关,即让模型具有外生性。PPT中的ln,根据清风引用的这本书上的例子的解释,其实应该是lg,以10为底的对数,这样才能解释以百分比来变化。回归分析的目的就是通过研究x和y之间的相关关系,尝试去解释y的形成机制,进而达到通过x去预测y的目的。横截面数据就是同一时点收集到的不同对象的数据。

2023-12-14 23:04:41 333 1

原创 第五讲 皮尔逊系数之假设检验

你确定的置信水平实际上就是你要检验的假设发生的概率,当累积密度函数的自变量是你需要求的临界值时,函数值就是概率密度函数在置信水平区间上的积分,因此将累计密度函数求反函数,就可以把临界值反解出来。但这个检验值/临界值会很难求,因此就引出另一个统计量来帮助我们检验--P值。采集样本数据以(选取的样本要具有代表性,,比如考虑随机抽样,考虑多样性样本,选取大容量样本,针对问题考虑特殊情境等)后,根据要检验的量选取一个合适的分布,根据实际需求来决定是否对样本进行标准化,然后可以绘制出对样本所选取分布的概率密度图。

2023-12-11 23:14:26 386

原创 第五讲 皮尔逊相关系数

皮尔逊相关系数是衡量两个具有线性相关的变量相关性的,只有两个变量时线性相关时其大小才可以反映这两个变量的相关性,因此在拿到数据时要先画出散点图来初步判断是否具有线性相关。单纯根据皮尔逊系数的大小不能直接判断相关性!计算皮尔逊系数之前最好进行描述性统计,描述性统计的结果可以放到论文里。这是为什么说相关系数可以看作两个变量标准化后的协方差。关于协方差为什么能反映两个变量的相关性。

2023-12-08 16:28:38 359

原创 熵权法熵权法(标题长度要求)

如果把信息量和概率(自变量)建立为一个函数,那么应该是单调递减的,并且可以用对数函数的图像来拟合。层次分析法计算出的权重具有比较强的主观性,熵权法就是根据数据本身来得到比较客观的权重。一个我认为非常好的例子来解释为什么概率大小能够反映信息量的大小。其中变异程度就是数据的标准差。以下是熵权法步骤的PPT截图。以下是熵权法的详细计算步骤。对熵权法的理解待续。

2023-12-04 21:45:09 381

原创 第二讲 优劣解距离法

一.一般要将所有极小型指标转换为极大型指标(越大越好,效益型指标),即正向化处理。常用的有max-x,或者取为1/x.中间型和区间型指标处理方法见课件截图。二.将正向化后的数据进行标准化处理,具体方法见课件截图。三.计算得分并归一化。每个指标的权重可以通过层次分析法得到。理解优劣解距离法:待续。

2023-12-03 18:16:15 360 1

原创 第一讲 层次分析法

使用1到9的尺度来表示两个元素之间的相对重要性。1:相等重要3:稍微重要5:中等重要7:相当重要9:极端重要如果一个元素相对于另一个更重要,则使用较大的数字。

2023-11-30 22:07:15 459

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除