![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数学方法
文章平均质量分 74
需要有简介
CQU_JIAKE
这个家伙不是很懒,只是最后依然也没有留下什么
展开
-
1.25时间序列分析,FB先知模型、简要傅里叶变化解决周期性变化,实例步骤
财务数据要考虑到可解释性。原创 2024-01-30 11:53:54 · 327 阅读 · 0 评论 -
1.24ANN神经网络(BP)(激活函数的类型,选择,构建不同的ANN网络(二分类,多分类,多标签,线性回归),实例)
sigmoid函数的导数值小于等于0.25。原创 2024-01-29 23:52:29 · 563 阅读 · 0 评论 -
1.23神经网络框架(sig函数),逆向参数调整法(梯度下降法,链式法则(理解,及处理多层神经网络的方式))
就是说,激励函数是确定每层神经元递归下去时所带的一项,就是描绘的输入与输出之间的递归变化关系,sig函数是x(1-x)w,(对应是里层输出x,以及参数w不变,输入边)每递归一层,就会多一个这样的形式,这样的形式由激励函数所确定,就是求导求出来的然后还有2(E-y),这个是由最外面的梯度下降的检验方式,即误差平方所决定的,每个表达式里都有,而且唯一。原创 2024-01-28 18:02:38 · 1397 阅读 · 0 评论 -
1.23聚类算法(kmeans(初始随机选k,迭代收敛),DBSCAN(dij选点),MEANSHIFT(质心收敛),AGENS(最小生成树)),蚁群算法(参数理解、过程理解、伪代码、代码)
聚类结果不变。原创 2024-01-28 18:02:06 · 881 阅读 · 0 评论 -
1.22SVM(对偶性,KKT条件,核函数(高斯核函数RBF,参数伽马),软间隔问题(对误差容忍,参数C),总结,例题),SVM流程,代码,划分指定类数
将原始空间中的向量作为输入向量,并返回特征空间(转换后的数据空间,可能是高维)中向量的点积的函数称为核函数。使用内核,不需要显式地将数据嵌入到空间中,因为许多算法只需要图像向量之间的内积(内积是标量);在特征空间不需要数据的坐标。这个核函数计算出来的结果,直接就是这两个向量之间的空间相似度;自变量是两个向量间的距离在面对非线性SVM划分,可以使用高斯核函数对于高斯核函数,伽马值越小,对距离的容忍度越大;就是说小伽马值更容易使两个相差不近的点被划分为同一类当中,导致预测精度的下降。原创 2024-01-26 10:23:02 · 1615 阅读 · 0 评论 -
1.21信息熵理解,一个好看的框架图,SVM
就是说,每个事件都会提供一些信息以确定情况事件发生的概率越大,意味着频率越大,就有越多的可能性,能缩减的查找范围就越少,所以信息熵就少;事件发生的概率越小,意味着频率越小,就有更少的情况会发生这样的事件,那么能缩减的查找范围就会增大,所以信息熵就大;所谓信息熵实际上就是事件发生后用来衡量能缩减多大的查找空间,能缩减多少的情况数。能缩减(2^信息熵)的情况数。原创 2024-01-26 10:22:31 · 860 阅读 · 0 评论 -
1.19信息学,信息熵(wordle)
当我们接收到一条消息或者发生一个事件时,如果这个消息或事件是我们事先不知道的、意外的或者概率较低的,那么它会给我们带来更多的新信息。如果所蕴含的信息越多,那么就是经过的判断也就越多,即经过所谓判断(是或不是)也就越多,也就是说,就是用所蕴含的判断次数来确定信息量的大小,划分的越细,所在的格子越小,就认为信息越多,经过二分次数越多,所处的位置精度也就越大。就是说,每个单词都有这么多的出现颜色格子组合的情况,然后依据总的所有的单词数量,可以求出来这个单词所对应的所有出现格子的情况总数,原创 2024-01-27 00:30:00 · 1879 阅读 · 0 评论 -
11.21假设检验,第一第二类错误
做假设的时候,首选假设都是已知的参数。备选假设是不确定的。要验证的是已知的可能的参数,也就是说是在这样一组数据下的分布,的概率,是不是落在拒绝域里,如果落在拒绝域里就说明当下的假设不成立,选取备用假设。即验证的时候,用的分布的参数都是当下的参数第一类错误就是检验假设是正确的,然后落在检验假设拒绝域里的概率;算这个概率,就是要依据假设的分布参数。这个概率就是显著性水平显著性水平越大,拒绝域越大,那么第一类错误的概率越大,越容易放弃原假设。原创 2023-11-21 20:57:44 · 171 阅读 · 0 评论 -
11.16~11.19绘制图表,导入EXCEL中数据,进行拟合
指定 Excel 文件路径# 提取 X 列的数据作为自变量# 添加常数列# 拟合多元线性回归模型# 打印回归结果摘要。原创 2023-11-20 10:28:41 · 498 阅读 · 0 评论 -
2023.11.16
正态性检验原创 2024-01-10 00:13:23 · 339 阅读 · 0 评论 -
11.10~11.15置信区间,均值、方差假设检验,正态,t,卡方,F分布,第一第二类错误
给定一个置信度,就可以算出一个置信区间。如果给的置信度越大,那么阿尔法就越小给的置信度越小,那么α就越大,那么考虑精确性,希望区间长度尽可能小,所以是取正态的中间的对称位置置信度越高,则精度越低,反之,精度越高则置信度越低置信水平描述真实值落在置信区间中的概率当你要提高置信水平(即真实值落在置信区间中的概率)的时候,相应的将要付出的代价就是拉长置信区间,也就是区间半径的增大。那么很显然的,如果你想让一个区间保持完美的,100%的可靠度,在已有的条件下,我只能将区间半径拉长到∞。原创 2023-11-15 23:59:49 · 745 阅读 · 0 评论 -
11.6区间估计、置信区间
就是说,在总体里随机取样的时候,取样的均值服从总体的均值,方差为总体均值方差与样本量比值的正态分布,样本量越小,方差越大,样本量越大,方差越小,取样的样本均值浮动越小,越接近于总体的均值注意是任何一个分布,任何一个总体都可以以此来接近或者说以此从总体取的样本来估计总体的样本均值如果总体分布就是正态分布,那么就不是近似,就是准确。原创 2023-11-07 08:30:54 · 448 阅读 · 0 评论 -
11.4~11.5置信区间、方差检测(部分)
极大似然估计应是使似然函数达到最大的那个值无偏性:多次抽样中,这些样本得到的参数估计值的平均值和总体参数一致这里面参数就是概率p,似然函数的目的是要求解p对于均值,方差,样本量的总体,如果是正太分布,或者非正态但样本量总体大,样本均值的抽样分布,则服从标准正态分布样本容量n与总体方差成正比,与绝对误差成反比,与概率度成正比估计总体均值时样本容量的确定就是说想要直到总体的一个均值,需要取样多少。原创 2023-11-06 09:30:02 · 111 阅读 · 0 评论