- 博客(7)
- 收藏
- 关注
原创 3 计算F值
dat=transform(dat,F=(N-2)*R2/(1-R2)) #计算F检验值。N=dat[1,“samplesize.exposure”] #获取样品的数目。inputFile=“exp_LD.csv” #输入文件。setwd(“*********”) #设置工作目录。(1-eaf.exposure)) #计算R2。Ffilter=10 #F值过滤条件。#根据F值>10进行过滤, 删除弱工具变量。#去除弱工具变量(F检验值)-----
2023-12-28 00:04:13
525
1
原创 学习笔记-孟德尔随机化代码
1、暴露数据和结局数据的SNO所对应的效应等位基因不一致(A/G vs. G/A)?1、是否有样本重叠(sample overlapping)?2、一部分暴露-SNP在结局中找不到,怎么办?3、代理SNP(proxies)如何确定。2、结局数据中SNP量是否足够多?孟德尔随机化-----本地数据。4、如果解决异质性?
2023-09-13 18:18:19
8461
11
原创 学习笔记--GWAS
在plink目录运行:plink.exe --ped test.ped --map test.map --maf 0.05 --assoc。进行GWAS:提取出合格的样本和SNP后,使用plink进行GWAS分析。SNP注释: http://wannovar.usc.edu/cmd进入plink工作目录(dir可查看目录信息)在工作路径可查看结果文件:plink.assoc。将整理好的输入文件放入plink工作路径下。整理数据—gwasResults.txt。
2023-03-27 22:49:39
214
原创 学习笔记-Python最近邻算法(KNN)
笔记行业应用:客户流失预测欺诈侦测(更适合于稀有事件的分类问题)近朱者赤,近墨者黑。一个样本在特征空间中,总有k个与之最相似(即特征空间中最邻近)的样本。其中,大多数属于某一类别,则该样本也属于这个类别。计算步骤:1.算距离:算出测试样本到训练集中每个样本的距离。(例如:欧氏距离)2.找邻居:找出距离最近的k个训练对象。(k值的选取:交叉验证)3.做分类:将这k个对象的主要类别作为测试数类别。(少数服从多数/根据距离的远近,距离越近权重越大,权重为距离平方的倒数)算法流程1.计算已
2021-03-07 23:24:13
2151
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人