学习笔记
文章平均质量分 91
Kanny广小隶
每一个不曾起舞的日子,都是对生命的辜负。
展开
-
图机器学习——5.11 图神经网络:网络训练与数据集划分
网络训练整体的训练可以分为基于有监督的标签训练,及无监督的训练。有监督训练可以有如下标签:基于节点标签yvy_vyv:如引文网络中,节点属于哪个学科领域;边标签yuvy_{uv}yuv:如交易网络中,边缘是否欺诈;图标签yGy_{G}yG:如分子图中,图的药物相似度。无监督训练:节点水平yvy_vyv:如聚类系数、PageRank、…;边水平yuvy_{uv}yuv:如隐藏两个节点之间的边,预测是否应该有链接;图水平yGy_{G}yG:如预测两个图是否同构。为原创 2022-05-24 22:28:01 · 3418 阅读 · 0 评论 -
图机器学习——5.10 图神经网络:预测任务
首先回顾一下整个GNN的结构,前面我们所介绍的都是红色框内所解决的任务。最终得到的节点嵌入结果,是一个关于每个在LLL层节点嵌入的集合:{hv(L),∀v∈G}\left\{\mathbf{h}_{v}^{(L)}, \forall v \in G\right\}{hv(L),∀v∈G}下面来我们来介绍图网络里,蓝色框中的预测任务(prediction head),其中包括:节点水平、边水平、图水平的三种预测:① 节点水平预测节点水平的预测我们可以直接采用最终的嵌入结果。也可以再进行一原创 2022-05-23 17:20:58 · 5144 阅读 · 0 评论 -
图机器学习——5.9 图神经网络:图的增广
由于在实际的训练中,原始的图结构往往不是训练的最优图结构。下面我们考虑如何对图进行增强(graph augmentation),这个类似于数据扩增,提升训练效率,模型的泛化能力及测试集的准确率。这种图增强的方法分为两种类型:图特征增强;图结构增强。需要图增强的原因有如下几点:输入图的节点可能比较缺乏特征;图结构可能过于稀疏,从而没有足够的信息传递;图结构可能过于稠密,进而导致信息传递出现冗余;图可能过大,使得一整个图结构没办法直接放入GPU中进行训练。针对上面几点,分别针对性地给出原创 2022-05-23 17:17:05 · 2179 阅读 · 0 评论 -
图机器学习——5.8 图神经网络:网络层连接
正常的图神经网络叠加应该是如下图所示,直接前一层的输出接后一层的输入。但这样简单的连接会出现 over-smoothing 的问题,即:所有的节点嵌入收敛到相同的值。这显然是不合理的。出现这种现象的原因如下。首先引入一个新概念——接受域(Receptive field),其决定一个感兴趣节点嵌入的一组节点。在K层GNN中,每个节点都有一个K阶邻居的接受域。下图分别为1-3阶邻居示意图:当我们增加邻居的阶数(GNN层数)时,共享邻居个数会快速增长,两个邻居节点的接受域会有非常多重合的邻居结点。回原创 2022-05-23 17:13:59 · 1043 阅读 · 0 评论 -
图机器学习——5.7 图神经网络:应用技巧与结构设计
对于一个网络的整体设计,现在常用的图神经网络借鉴了很多深度学习中的结构,包括:Batch Normalization:使训练过程更稳定;Dropout:减轻网络的过拟合;Attention/Gating:控制message的重要性;其他。下面进行详细说明。① Batch Normalization给定一批输入(节点嵌入),Batch Normalization 的作用是:重新中心化节点嵌入;重规范化方差。第一步:计算N个嵌入的均值与方差:μj=1N∑i=1NXi,jσj2=1N∑i=1原创 2022-05-23 16:59:05 · 456 阅读 · 1 评论 -
图机器学习——5.6 广义 GNN 框架:GCN、GraphSAGE与GAT
① 图卷积网络(Graph Convolutional Networks,GCN)其核心结构为:hv(l)=σ(W(l)∑u∈N(v)hu(l−1)∣N(v)∣)\mathbf{h}_{v}^{(l)}=\sigma\left(\mathbf{W}^{(l)} \sum_{u \in N(v)} \frac{\mathbf{h}_{u}^{(l-1)}}{|N(v)|}\right)hv(l)=σ⎝⎛W(l)u∈N(v)∑∣N(v)∣hu(l−1)⎠⎞因此对应的 message 为(利原创 2022-05-23 16:53:22 · 828 阅读 · 0 评论 -
图机器学习——5.5 广义 GNN 框架:消息传递与聚合
5. 广义视角下的 GNN 框架GNN 层的本质为:消息(Message) + 聚合(Aggregation)。在这一视角下的有许多不同的实例:GCN,GraphSAGE,GAT等,下面我们将着重讲解这三个不同的实例。GNN 的总体框架分别包括:1)消息 与 2)聚合,也就是一个网络层中的操作。3)层与层之间的连接4)图增广(Graph augmentation) 与 5)学习目标(Learning Object)下面我们一部分一部分进行分析。1)消息(Message)图网络中的原创 2022-05-23 16:31:02 · 3321 阅读 · 0 评论 -
图机器学习——5.4 图神经网络:另一种视角下的GCN
另一种视角下的GCN传统的卷积本质上就是一种加权求和方法。这种方法是针对图像或者视频数据中像素点(pixel)是排列整齐的矩阵进行处理,但遇到非欧结构中的拓扑图数据便无法进行计算。而在图卷积中,考虑的内容与之类似,核心思想为:图中的每个结点无时无刻不因为邻居和更远的点的影响而在改变着自己的状态直到最终的平衡,关系越亲近的邻居影响越大。(其实前面学习的embedding就是类似的思想)GCN方法又可以分为两大类,1. 基于空间(spatial-based); 2.基于频谱(spectral-based)原创 2022-05-23 16:20:39 · 621 阅读 · 0 评论 -
图机器学习——5.3 图神经网络:GNN与CNN及Transformer的关系
以上就是GNN的基本框架,下面我们来看看GNN与CNN框架及Transformer中的异同。1)GNN vs. CNNCNN层与层之间的传递公式为:hv(l+1)=σ(∑u∈N(v)∪{v}Wlu hu(l)),∀l∈{0,…,L−1}\mathrm{h}_{v}^{(l+1)}=\sigma\left(\sum_{u \in \mathrm{N}(v) \cup\{v\}} \mathrm{W}_{l}^{u} \mathrm{~h}_{u}^{(l)}\right), \quad \f原创 2022-05-23 16:07:36 · 2724 阅读 · 0 评论 -
图机器学习——5.2 图神经网络:GNN的构建与训练
1. GNN的构建我们将节点的邻居定义为可计算的图,图神经网络的主要想法是:每一个节点可以从周围的邻居中汇聚信息,而这个汇聚的方式就是通过神经网络来进行。以下图为例,我们来进行解释:首先以节点A为目标节点,其邻居为B, C, D,那么A的信息就由B, C, D进行汇聚;接着进行递归,B的信息来源于A, C(由于是无向图,因此A也需要进行考虑,下面类似);C的信息来源于A, B, E, F;D又来源于A。因此得到上右图所示的网络。接着我们考虑所有的节点,均作为目标节点,构建一个这样的传递模型。这种原创 2022-05-23 15:38:40 · 3352 阅读 · 0 评论 -
为什么不能说“接受原假设”?
我们主要从几个方面来说明,当统计中假设检验不显著时,为什么需要说 **不拒绝原假设** 而不能说 **接受原假设** 。原创 2022-04-10 16:20:52 · 4233 阅读 · 0 评论 -
HoroPCA: Hyperbolic Dimensionality Reduction via Horospherical Projections 学习笔记——2.方法与代码
本文承接上一篇文章:HoroPCA: Hyperbolic Dimensionality Reduction via Horospherical Projections 学习笔记——1.背景介绍1. HOROPCA算法为了介绍HOROPCA的具体算法,我们首先介绍传统欧氏空间中的PCA算法。1)欧氏空间PCA给定一个数据集SSS与目标维度KKK,PCA会贪婪地寻找一系列主成分p1,…,pKp_{1}, \ldots, p_{K}p1,…,pK使得最大化正交投影πo,p1,…,pkE(⋅)\pi_原创 2021-10-31 23:12:02 · 271 阅读 · 0 评论 -
HoroPCA: Hyperbolic Dimensionality Reduction via Horospherical Projections 学习笔记——1.背景介绍
HoroPCA学习笔记1. 背景介绍本篇博客学习的文章为:HoroPCA: Hyperbolic Dimensionality Reduction via Horospherical Projections。传统欧氏空间(Euclidean spaces)的主成分分析(Principal Component Analysis,PCA)是一种基本的降维技术,它寻找最能解释原始数据的一系列方向。下面将PCA推广到一般的双曲空间。给定一个方向,PCA依赖于下述几个核心点:这些方向所张成的仿射子空间(原创 2021-10-31 23:08:26 · 515 阅读 · 0 评论 -
双曲嵌入论文与代码实现——2. 方法与代码
本篇接上一篇:双曲嵌入论文与代码实现——1. 数据集介绍1. 方法说明首先学习相关的论文中的一些知识,并结合进行代码的编写。文中主要使用Poincaré embedding。整体的空间为一个ddd维的开球:Bd={x∈Rd∣∥x∥<1}\mathcal{B}^{d}=\left\{\boldsymbol{x} \in \mathbb{R}^{d} \mid\|\boldsymbol{x}\|<1\right\}Bd={x∈Rd∣∥x∥<1},∥⋅∥\|\cdot\|∥⋅∥为欧几里得范原创 2021-10-31 22:54:54 · 1300 阅读 · 1 评论 -
双曲嵌入论文与代码实现——1. 数据集介绍
双曲嵌入论文与代码实现由于双曲嵌入相关的文章已经有了一系列的代码。本篇博客主要目的实现最开始的双曲嵌入论文,将论文中有些直接写出来的内容进行了细节的推导,同时实现对应的代码。学习的文章:Poincaré Embeddings for Learning Hierarchical Representations主要参考的代码:poincare_embeddingsgensim – Topic Modelling in Python - poincare.py由于有些代码难以运行,有些比较难原创 2021-10-31 22:16:16 · 5689 阅读 · 0 评论 -
双曲嵌入深度学习
1. 双曲空间双曲空间的定义是曲率为负常数的一类空间。我们首先以一个图为例,来看欧式空间与双曲空间的区别。左图为欧式空间,我们从中间节点向外部移动,走一步所能达到的网格数量是323^232,两步是525^252,网络空间会随着半径多项式(平方)的关系进行增长。反观右侧的树结构空间,假设为二叉树,从中心点向外走的节点个数是呈指数增长的,因此这是一个呈指数增长的空间。假设右侧的树结构我们嵌入到欧式空间上,那么红色的节点到绿色的节点在树上的距离相距888个结点,但直接在平面上看两个节点非常近。一个好的嵌入原创 2021-08-27 21:43:32 · 7331 阅读 · 4 评论 -
数据率失真理论(RATE DISTORTION THEORY)
数据率失真理论(Rate distortion theory)或称信息率-失真理论(information rate-distortion theory)是信息论的主要分支,其的基本问题可以归结如下:对于一个给定的信源(source, input signal)分布与失真度量,在特定的码率下能达到的最小期望失真是多少;或者为了满足一定的失真限制,可允许的最大码率为何,DDD 定义为失真的符号。要完全避免失真几乎不可能。处理信号时必须允许有限度的失真﹐可减小所必需的信息率。1959年﹐Claude Shan原创 2021-07-19 21:50:37 · 8654 阅读 · 4 评论 -
ReduNet 代码解读【Numpy 版本】
最近学习了ReduNet里面代码的框架,作为一个经常使用R的童鞋来说受益匪浅。本篇博客主要来介绍一下里面的代码的结构。这里我们主要针对用Numpy库构建的网络结构与代码逻辑进行学习与分析。下面对一个Iris数据的demo进行分析。首先是通过parser进行传参,在使用下述命令运行代码时,可以将参数纳入到代码中。python3 iris.py --layers 4000 --eta 0.1 --eps 0.1iris.py文件中传参部分如下所示。参数包括layers(网络层数), eta(超参数,原创 2021-07-19 21:45:16 · 1542 阅读 · 1 评论 -
ReduNet 中的一些原理 及 The Rate-Distortion Function
两种编码率总体空间的编码率(coding rate):R(Z,ϵ)≐12logdet(I+dmϵ2ZZ⊤),R(\boldsymbol{Z}, \epsilon) \doteq \frac{1}{2} \log \operatorname{det}\left(\boldsymbol{I}+\frac{d}{m \epsilon^{2}} \boldsymbol{Z} \boldsymbol{Z}^{\top}\right),R(Z,ϵ)≐21logdet(I+mϵ2dZZ⊤),以及类内空间原创 2021-07-19 21:40:29 · 1921 阅读 · 5 评论 -
ReduNet: A White-box Deep Network from the Principle 学习
最近在学习马毅老师的 NeurIPS 2020 中稿文章 MCR2,当时引起很多的报告,并且也上了热搜。抱着看一看的态度,认真学习了几篇核心的文章,并进行理解。作为 ReduNet: A White-box Deep Network from the Principle 的前置文章之一的,Deep Networks from Optimizing Rate Reduction,首先对其进行了学习。文章考虑的问题是针对分类问题,如何能够使得分类更加准确。使用的方法考虑到了数据的压缩与表示,非常类似对比学原创 2021-07-19 21:33:44 · 2555 阅读 · 1 评论 -
降低核方法在大样本高维数据情形复杂度的一些方法
目前使用核方法很容易遇到的问题是,当遇到大规模机器学习上时。目前有一些论文的方法来降低核方法在大样本高维数据情形的计算复杂度与空间复杂度。这里进行一个简单的归纳总结。1. 运用Bochner’s theorem有一种做法是使用那些平移不变的Kernel(高斯与拉普拉斯核),运用Bochner’s theorem,将核函数估计进行简化,而后从计算出来的分布中进行采样,从而可以达到降维的目的(May A, Garakani A B, Lu Z, et al. Kernel Approximation Me原创 2021-07-19 21:18:36 · 712 阅读 · 1 评论 -
深度学习如何引入先验知识(临床医生的诊断经验)
深度学习的问题在使用传统的深度学习网络对病灶进行分割时,如,FCNN, U-Net, Dense U-Net等,网络均只考虑了本身图像上的信息,让网络本身通过大量的图像与label的对应关系,进行深度学习模型的训练。这一系列过程中没有任何人工的干预以及人为的先验信息。当数据量十分巨大时,这种做法往往能够取得非常好的分割效果,但当数据量相对较小时,如很多医学影像数据往往只有几十张精准标注的图像,引入医生本身的解剖学信息往往能够取得更好的分割效果。但问题的难点在于如何将医生的临床知识进行量化表示,并与深度学习原创 2021-01-11 22:20:44 · 5173 阅读 · 0 评论 -
深入理解ReLU函数(ReLU函数的可解释性)
本篇博文主要来源于对文章 Unwrapping The Black Box of Deep ReLU Networks: Interpretability, Diagnostics, and Simplification 的学习,同时还有部分内容摘自wiki百科。什么是ReLU函数?ReLU,全称为:Rectified Linear Unit,是一种人工神经网络中常用的激活函数,通常意义下,其指代数学中的斜坡函数,即f(x)=max(0,x) f(x)=\max(0,x) f(x)=max(0,x原创 2021-01-06 16:30:42 · 109119 阅读 · 10 评论 -
群组测试(Group testing)介绍
最近了解了群组测试 (Group testing) 的一些内容,在这里做个记录与分享。问题引入问题源于二战时期,美国需要通过血样检测美军是否携带梅毒,但是当时血液检测耗时耗钱,将每个士兵的血液都检查一遍效率很低。考虑到携带梅毒的总归是少数,Rosenblatt和Dorfman提出将全部待检测士兵的血样分组混合后再检测,如果混合后的血样没有病毒,可以推定整个组都没有病毒,如此便能够减少不必要的检测。具体测试过程示例如下所示:将以上问题标准化描述如下:给定集合NNN,其中有nnn个个体,每个个体原创 2021-01-04 15:05:36 · 3854 阅读 · 0 评论 -
Boosting 系列算法——7. LightGBM
LightGBM (Light Gradient Boosting Machine)是一个实现GBDT算法的框架,支持高效率的并行训练。其在Higgs数据集上LightGBM比XGBoost快将近10倍,内存占用率大约为XGBoost的1/6,并且准确率也有提升。GBDT在每一次迭代的时候,都需要遍历整个训练数据多次。如果把整个训练数据装进内存则会限制训练数据的大小;如果不装进内存,反复地读写训练数据又会消耗非常大的时间。尤其面对工业级海量的数据,普通的GBDT算法是不能满足其需求的。LightGBM提出的原创 2020-12-19 15:29:18 · 471 阅读 · 1 评论 -
Boosting 系列算法——6. XGBoost
1. 算法导出在XGBoost中,使用的目标函数相比于GBDT,添加一个新的正则项,主要目的是衡量模型的复杂程度,直接在损失函数中直接控制树的复杂度。Obj=∑i=1NL(yi,F(xi))⏟训练损失+∑m=1MΩ(hm)⏟树的复杂度,Obj=\sum_{i=1}^N \underbrace{L\left(y_i, F(\mathbf{x}_i)\right)}_{\text {训练损失}}+\sum_{m=1}^M \underbrace{\Omega\left(h_{m}\right)}_{\tex原创 2020-12-19 15:22:01 · 316 阅读 · 1 评论 -
Boosting 系列算法——5. Gradient Tree Boosting / Gradient Boosting Decision Tree (GBDT)
1. 算法介绍梯度提升通常与固定大小的决策树 (尤其是CART树)一起作为基学习器。对于这种特殊情况,Friedman在文章《Greedy function approximation: A gradient boosting machine.》中提出了一种对梯度增强的改进方法,以提高模型的学习与泛化能力。GBDT的第mmm步的弱学习器——回归树hm(x)h_{m}(\mathbf{x})hm(x)对模型当前的pseudo-residuals进行拟合。令JmJ_{m}Jm为树的叶子数。树将输入空间划原创 2020-12-19 15:14:21 · 543 阅读 · 1 评论 -
Boosting 系列算法——4. Gradient Boosting
1. 算法导出Gradient Boosting 是一种用于回归和分类问题的机器学习技术,其产生的预测模型是弱预测模型的集成,如采用典型的决策树 作为弱预测模型,这时则为梯度提升树(GBT或GBDT)。像其他提升方法一样,它以分阶段的方式构建模型,但它通过允许对任意可微分损失函数进行优化作为对一般提升方法的推广。Gradient Boosting 算法通过迭代的方式,将多个弱分类器结合成一个强分类器。最简单的解释是在最小二乘回归中,通过最小化均方误差1N∑i(y^i−yi)2{\tfrac {1}{N}原创 2020-12-19 14:23:55 · 1178 阅读 · 1 评论 -
Boosting 系列算法——3. Adaboost 的延伸算法
1. AdaBoost 的另一个理解角度前文所述的均为离散情况下的AdaBoost,简称:Discrete AdaBoost。下面我们从另一个角度来推导出Discrete AdaBoost算法。首先考虑最小化指数风险:C(F)=E(e−yF(x)).C(F)=\mathbb{E}\left(e^{-y F(\mathbf{x})}\right).C(F)=E(e−yF(x)).由于E(e−yF(x)∣x)=P(y=1∣x)e−F(x)+P(y=−1∣x)eF(x),∂E(e−yF(x)∣x)∂F(原创 2020-12-19 11:03:46 · 305 阅读 · 2 评论 -
Boosting 系列算法——2. Adaboost
1. 算法介绍AdaBoost 算法的全称是 Adaptive Boosting,其本质是用一系列弱分类器线性组合构造强分类器。弱分类器的性能只需比随机分类稍微好一些,依靠他们即可构造出一个非常准确的强分类器。强分类器的计算公式为:FM(x)=∑m=1Mαmhm(x),F_M(\mathbf{x}) = \sum_{m=1}^M \alpha_m h_m(\mathbf{x}),FM(x)=m=1∑Mαmhm(x),其中,x\mathbf{x}x是输入向量,FM(x)F_M(\mathbf原创 2020-12-19 10:53:28 · 436 阅读 · 3 评论 -
Boosting 系列算法——1. 简单概述
写在最前博主准备写几篇博客,主要将目前比较常见的一些Boosting算法进行汇总整理,帮助大家更好的进行机器学习算法的学习。同时对将来找工作的童鞋们也能有一些帮助。本系列博客参考了大量网上的内容(包括Wiki,中英文博客等),涉及到的相关Boosting算法的原始论文,以及李航老师的《统计学习方法》,三位大牛的《The Elements of Statistical Learning》,还有周志华老师的《集成学习》。为了方便大家对整个Boosting算法的理解,并且处于严谨的考虑,这一系列博客都将采用原创 2020-12-19 10:39:43 · 788 阅读 · 2 评论 -
可解释性神经网络——3.一种新的可解释性神经网络GAMI-Net
在之前,我们介绍了两种可解释性神经网络:可解释性神经网络——1.xNN可解释性神经网络——2.添加约束的xNN这里我们再介绍另一种网络结构:GAMI-Net,对应的文章为GAMI-Net: An Explainable Neural Network based on Generalized Additive Models with Structured InteractionsAccurate Intelligible Models with Pairwise Interactions原创 2020-08-03 10:44:24 · 4219 阅读 · 0 评论 -
可解释性深度学习工具Captum轻度体验
最近对可解释性平台Captum进行了实际操作。这是Facebook 发布的一个基于 Pytorch 的模型解释库。该库为许多新的算法(如:ResNet、BERT、一些语义分割网络等)提供了解释性,帮助大家更好地理解对模型预测结果产生作用的具体特征、神经元及神经网络层。针对图像分类问题,其可以快速定位影响结果的一些像素点,并进行可视化展现;而对于文本翻译等问题,能够可视化标注出不同单词的重要性,以及利用heatmap展示单词之间的相关性等。1. 安装首先是安装,其实只要电脑符合前置要求,安装起来非常简单原创 2020-08-03 10:03:24 · 11560 阅读 · 0 评论 -
可解释性神经网络——2.添加约束的xNN
在前面的文章中,我们介绍了 一种可解释性神经网络——xNN,而在本篇博客中,我们将要介绍一种针对前面文章的一种改进方法,使网络结构的可解释性更强,预测准确率更高。文章名称:Enhancing Explainability of Neural Networks through Architecture ConstraintsEnhancing Explainability of Neural Networks through Architecture Constraints模型介绍本博客所介绍的模型原创 2020-07-20 18:15:23 · 5383 阅读 · 4 评论 -
可解释性神经网络——1.xNN
引言随着深度学习的兴起,其在许多领域都能够取得远胜于传统方法的表现,如今许多行业都已经用到了深度学习以及神经网络来进行分析或者预测,解决实际的一些问题。但其可解释性差也一直是令人所诟病的一点,也就是我们常说的“黑箱问题”。例如:在识别一段话的语义情境时,计算机直接通过神经网络,给出这段话是积极的还是消极的,并且给出一个百分比作为置信度。但我们并不知道为什么计算机能够直接给出这样的结果,其内部的判断机制,都无法知晓。那么及时这个模型的准确率非常高,在实际使用时,我们也会为其画上一个大大的问号,使用时也会相原创 2020-07-20 17:48:03 · 7678 阅读 · 5 评论 -
统计学面试经典问题
1. 叙述你所熟悉的大数定律与中心极限定理,并举例说明它在统计学中的应用。1) 大数定律弱大数定律(通常指辛钦大数定律):a) 马尔科夫大数定律:随机变量满足马尔科夫条件:1n2D(∑k=1nξk)→0\frac {1}{n^2} D(\sum^n_{k=1} \xi_k)\rightarrow 0n21D(∑k=1nξk)→0,则样本均值依概率收敛于期望值。b) 辛钦大数定律...原创 2019-12-29 21:22:00 · 24078 阅读 · 0 评论 -
《Statistical Analysis with Missing Data》学习笔记——1. 缺失数据介绍
本学期将要学习《Statistical Analysis with Missing Data》一书,这本书关注在我们数据矩阵中一些没观测到的值。这些缺失值可能是各种原因引起的,例如我们调查各个年龄段人群的收入情况,有些人会拒绝回答这类型的隐私问题;亦或者可能由于由于机器故障从而导致实验结果缺失等等。很多时候我们在处理缺失值数据时,都是简单粗暴将有缺失值的样本直接进行删除,。通过这本书,我们可以了解...原创 2018-09-05 21:21:42 · 3665 阅读 · 1 评论 -
检验数据缺失的类型:《Statistical Analysis with Missing Data》习题1.6
题目解答由于题目要求需要重复三次类似的操作,故首先载入所需要的包,构造生成数据的函数以及绘图的函数:library(tidyr) # 绘图所需library(ggplot2) # 绘图所需# 生成数据GenerateData &amp;amp;lt;- function(a = 0, b = 0, seed = 2018) { set.seed(seed) z1 &amp;amp;lt;- r...原创 2018-09-22 18:01:33 · 1948 阅读 · 0 评论 -
插补缺失数据的几种方法:《Statistical Analysis with Missing Data》习题4.15
一、题目本题基于之前习题1.6产生关于(Y1,Y2,U)(Y_1, Y_2, U)(Y1,Y2,U)的模拟数据:yi1=1+zi1y_{i1}=1+z_{i1}yi1=1+zi1yi2=5+2∗zi1+zi2y_{i2}=5+2*z_{i1}+z_{i2}yi2=5+2∗zi1+zi2ui=a∗(yi1−1)+b∗(yi2−5)+zi3u_i=a*(y_{i1}-1)+b*(...原创 2018-10-20 21:14:31 · 1911 阅读 · 0 评论 -
缺失数据的Bootstrap与Jackknife方法:《Statistical Analysis with Missing Data》习题5.1 & 5.2
一、题目5.1本题基于之前习题1.6产生关于(Y1,Y2,U)(Y_1, Y_2, U)(Y1,Y2,U)的模拟数据:yi1=1+zi1y_{i1}=1+z_{i1}yi1=1+zi1yi2=5+2∗zi1+zi2y_{i2}=5+2*z_{i1}+z_{i2}yi2=5+2∗zi1+zi2分别利用Bootstrap,Jackknife以及解析式三种方式来估计Y2Y_2Y2...原创 2018-10-20 21:15:48 · 2667 阅读 · 0 评论