自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 【时间序列】时间序列的线性、趋势和动量预测

回到自相关图与滞后的关系,该图显示,随着滞后的增加趋势减小。如果我们将滞后数据作为原始数据的移动版本并查看重叠(在本例中为它们的自相关),则可以更好地想象滞后自相关的概念。的绝对值之和,因此惩罚项在零点处是不可导的,所以也不能用最小二乘法,梯度下降法,用的是坐标下降法。,而这样的求解,在有的时候会出现问题,当自变量间存在多重线性关系或者矩阵不可求逆时,这种求法就会出错或者是参数。由公式(6)可以看出公式(8)分子的第三项和第四项相等,分母的第三项和第四项就是将分子的第三项和第四项中的。

2024-02-17 15:45:54 1296

原创 【时间序列】时间序列的平稳性

本专栏将会介绍时间序列、预测和不同的基本原理我们将在讨论的不同章节中使用。

2023-10-02 12:00:34 398 1

原创 用神经网络预测说明Takens定理

这种预测过程通常需要接受某种数据或输入,并产生一个输出,对于我们乐观的灵魂来说,这将是他们的股票或密码在第二天下午的价格。事实证明,多使用一个变量只能给我们更多的信息,而使用三个以上的变量并不能给我们更多的信息。一个吸引子有几个重要的特征:所有的轨迹将遵循一个类似蝴蝶的模式,一个轨迹将不会访问同一个点超过一次,并且开始彼此接近的轨迹将在以后看起来非常不同。这里的要点是,当只使用两个数据点时,神经网络有较大的损失,大约 0.13,而没有太大的改进,当最多使用四个数据点时,仍然徘徊在 0.04 左右。

2023-09-26 00:13:43 209

原创 Takens嵌入定理以非数学公式的角度解释

1981年,芙罗莉丝·塔肯斯发表了一篇名为“探测湍流中的奇怪吸引子”的论文,该论文被引用了14000多次(据谷歌称)。如果你看原始论文,它非常专业,对于像我这样对代数、分析、拓扑或动力系统理论没有很好理解的人来说很难理解。然而,这个定理的含义远远超出了这些领域。这篇文章旨在提炼定理,以便更好地理解,同时希望不会丢失太多信息。像图像压缩算法一样,我们不可避免地会丢失一些信息,但希望图片还在。

2023-09-23 19:11:45 552 1

原创 【可解释性机器学习】Permutation Feature Importance

排列特征重要性测量我们在排列了特征值后模型预测误差的增加,这打破了特征与真实结果之间的关系。

2023-06-28 11:54:45 447 1

原创 【嵌入式拉普拉斯近似】Integrated Nested Laplace Approximation

在贝叶斯范式中,模型中的所有未知量都被视为随机变量,其目的是计算(或估计)联合后验分布。这就是参数θ的分布,以观测数据y为条件。Pθ∣xPx∣θ⋅Pθ∫θPx∣θ⋅PθdθPθ∣x∫θ​Px∣θ⋅PθdθPx∣θ⋅Pθ​等式左边项Pθ∣XPθ∣X表示后验概率,其中Pθ∣X∝Pθ⋅PX∣θPθ∣X∝Pθ⋅PX∣θPx∣θPx∣θ表示似然。

2023-06-18 11:18:47 809

翻译 【可解释机器学习】Shapley Values and SHAP (SHapley Additive exPlanations)

在这一章节首先我们介绍什么是shapley value(夏普利值)和什么是SHAP。接下来先从原理上解释shapley的数学原理。

2023-03-29 23:24:30 3192 2

翻译 【可解释性机器学习】interpretable machine learning——Functional Decomposition

可解释性机器学习函数分解

2023-03-21 20:59:34 264

原创 【因果推断与机器学习】Causal Inference:Chapter_4_instrument_variables前世今生

什么是工具变量

2022-12-04 17:11:01 524 1

原创 【因果推断与机器学习】Causal Inference:Chapter_4_instrument_variables

工具变量

2022-12-03 16:52:10 575 7

原创 【因果推断与机器学习】Causal_inference: Chapter 4

因果推断,带你了解CATE的含义

2022-10-15 15:37:36 577

原创 【因果推断与机器学习】带入坑——之辛普森悖论

辛普森悖论

2022-10-13 17:04:42 698

原创 【D-S证据理论】学习笔记

D-S证据理论,几个生动的小栗子理解证据理论的美妙!

2022-07-27 00:31:29 2179

原创 【因果推断与机器学习】Causal Inference: Chapter_3

算是完整的介绍了后门路径法则和干预之后的概率公式

2022-07-13 10:41:25 696 1

原创 【因果推断与机器学习】Causal Inference:Chapter_3

建立一个完整的模型,稳定的模型

2022-07-07 15:59:38 1033

原创 【因果推断与机器学习】Causal Inference: Chapter_2

因果推断的基本结构因果图,以及相关基础知识。

2022-06-30 16:58:33 1108

原创 【因果推断与机器学习】Causal Inference: Chapter_1

因果推断,人工智能从相关到因果的转变!

2022-06-29 00:04:57 2861

原创 【论文笔记】Tensor Completion for Weakly-dependent Data on Graph for Metro Passenger Flow Prediction

论文笔记目录前言Introduction前言最近有荔枝要成为最有钱途的科研小哥,哼!所以开始了苦逼的科研生活,所以需要分享我的论文笔记,并且希望能够跟众大科研学者沟通交流以及多多请教!好了话不多说开始本次第一个论文笔记分享。首先分享一下这篇论文的摘要内容,这篇文章的摘要主要讲了:“低秩张量分解和完全吸引了众多学者的极大兴趣。然而,低秩结构是一种全局属性,当给定特定的图结构时,数据呈现复杂且弱的依赖关系时,它将无法实现。推动这项研究的一个特殊应用是时空数据分析。如初步研究所示,弱依赖可能会恶化低秩张量完

2022-03-01 22:55:22 441

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除