- 博客(18)
- 收藏
- 关注
原创 【时间序列】时间序列的线性、趋势和动量预测
回到自相关图与滞后的关系,该图显示,随着滞后的增加趋势减小。如果我们将滞后数据作为原始数据的移动版本并查看重叠(在本例中为它们的自相关),则可以更好地想象滞后自相关的概念。的绝对值之和,因此惩罚项在零点处是不可导的,所以也不能用最小二乘法,梯度下降法,用的是坐标下降法。,而这样的求解,在有的时候会出现问题,当自变量间存在多重线性关系或者矩阵不可求逆时,这种求法就会出错或者是参数。由公式(6)可以看出公式(8)分子的第三项和第四项相等,分母的第三项和第四项就是将分子的第三项和第四项中的。
2024-02-17 15:45:54 1296
原创 用神经网络预测说明Takens定理
这种预测过程通常需要接受某种数据或输入,并产生一个输出,对于我们乐观的灵魂来说,这将是他们的股票或密码在第二天下午的价格。事实证明,多使用一个变量只能给我们更多的信息,而使用三个以上的变量并不能给我们更多的信息。一个吸引子有几个重要的特征:所有的轨迹将遵循一个类似蝴蝶的模式,一个轨迹将不会访问同一个点超过一次,并且开始彼此接近的轨迹将在以后看起来非常不同。这里的要点是,当只使用两个数据点时,神经网络有较大的损失,大约 0.13,而没有太大的改进,当最多使用四个数据点时,仍然徘徊在 0.04 左右。
2023-09-26 00:13:43 209
原创 Takens嵌入定理以非数学公式的角度解释
1981年,芙罗莉丝·塔肯斯发表了一篇名为“探测湍流中的奇怪吸引子”的论文,该论文被引用了14000多次(据谷歌称)。如果你看原始论文,它非常专业,对于像我这样对代数、分析、拓扑或动力系统理论没有很好理解的人来说很难理解。然而,这个定理的含义远远超出了这些领域。这篇文章旨在提炼定理,以便更好地理解,同时希望不会丢失太多信息。像图像压缩算法一样,我们不可避免地会丢失一些信息,但希望图片还在。
2023-09-23 19:11:45 552 1
原创 【可解释性机器学习】Permutation Feature Importance
排列特征重要性测量我们在排列了特征值后模型预测误差的增加,这打破了特征与真实结果之间的关系。
2023-06-28 11:54:45 447 1
原创 【嵌入式拉普拉斯近似】Integrated Nested Laplace Approximation
在贝叶斯范式中,模型中的所有未知量都被视为随机变量,其目的是计算(或估计)联合后验分布。这就是参数θ的分布,以观测数据y为条件。Pθ∣xPx∣θ⋅Pθ∫θPx∣θ⋅PθdθPθ∣x∫θPx∣θ⋅PθdθPx∣θ⋅Pθ等式左边项Pθ∣XPθ∣X表示后验概率,其中Pθ∣X∝Pθ⋅PX∣θPθ∣X∝Pθ⋅PX∣θPx∣θPx∣θ表示似然。
2023-06-18 11:18:47 809
翻译 【可解释机器学习】Shapley Values and SHAP (SHapley Additive exPlanations)
在这一章节首先我们介绍什么是shapley value(夏普利值)和什么是SHAP。接下来先从原理上解释shapley的数学原理。
2023-03-29 23:24:30 3192 2
翻译 【可解释性机器学习】interpretable machine learning——Functional Decomposition
可解释性机器学习函数分解
2023-03-21 20:59:34 264
原创 【论文笔记】Tensor Completion for Weakly-dependent Data on Graph for Metro Passenger Flow Prediction
论文笔记目录前言Introduction前言最近有荔枝要成为最有钱途的科研小哥,哼!所以开始了苦逼的科研生活,所以需要分享我的论文笔记,并且希望能够跟众大科研学者沟通交流以及多多请教!好了话不多说开始本次第一个论文笔记分享。首先分享一下这篇论文的摘要内容,这篇文章的摘要主要讲了:“低秩张量分解和完全吸引了众多学者的极大兴趣。然而,低秩结构是一种全局属性,当给定特定的图结构时,数据呈现复杂且弱的依赖关系时,它将无法实现。推动这项研究的一个特殊应用是时空数据分析。如初步研究所示,弱依赖可能会恶化低秩张量完
2022-03-01 22:55:22 441
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人