自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 研究miRNA和mRNA的调控关系

**双荧光素酶报告基因实验**:通过将预测的靶标序列克隆到荧光素酶报告基因载体中,观察miRNA对荧光素酶活性的影响,从而验证miRNA与靶标mRNA的相互作用。- **实验数据**:通过实验方法获取miRNA和mRNA的表达数据。- **功能富集分析**:分析被调控的mRNA基因的功能,了解miRNA调控的生物学过程。- **qRT-PCR**:用于定量检测miRNA和mRNA的表达量。- **小鼠模型**:研究miRNA在体内的生物学功能和其对疾病的影响。

2024-05-27 15:23:32 253

原创 怎么联合基因上多个CpG的甲基化来评估一个基因的甲基化程度

此外,使用机器学习方法如LASSO回归,可以选择出最具代表性的CpG位点,用于基因甲基化的预测模型。- 如果使用Bisulfite测序,可以将测序数据转化为每个位点的甲基化水平(例如,0到1之间的值,0表示完全未甲基化,1表示完全甲基化)。通过这种方法,可以比较不同样本的基因甲基化情况,并进一步研究其与基因表达、疾病等的关系。评估一个基因的整体甲基化程度,通常需要综合分析该基因上多个CpG位点的甲基化状态。- 计算多个CpG位点的平均甲基化水平,以评估整个基因的甲基化程度。

2024-05-27 10:01:09 157

转载 机器学习笔记之决策树分类Decision Tree原理

参见:https://www.cnblogs.com/JetpropelledSnake/p/14513544.html

2024-05-23 10:44:17 9

原创 linux本地服务器上设置共享盘,window系统上访问

2. **输入共享路径:**在资源管理器的地址栏中输入 Linux 服务器的 IP 地址,格式为 `\\server_ip\shared`,其中 `server_ip` 是 Linux 服务器的 IP 地址,`shared` 是共享的名称。4. **访问共享文件夹:**现在应该可以访问 Linux 服务器上的共享文件夹了,并可以在 Windows 系统上进行操作。3. **输入凭据:**当提示时,输入在 Linux 上创建的 Samba 用户名和密码。4. **添加 Samba 用户:**

2024-05-09 15:47:32 275 2

转载 RFECV方法

递归特征消除简称RFE(Recursive Feature Elimination),RFE是使用一个基模型进行多轮训练,每轮训练后,消除若干低权值(例特征权重系数或者特征重要性)的特征,再基于新的特征集进行下一轮训练[1]。RFE使用时,要提前限定最后选择的特征数(n_features_to_select),这个超参很难保证一次就设置合理,因为设高了,容易特征冗余,设低了,可能会过滤掉相对重要的特征。而且RFE只是单纯基于特征权重去选择,没有考虑模型表现,因此RFECV出现了,R。

2024-04-26 11:21:28 120 1

转载 方差分析理解

参见。

2024-04-24 16:27:40 17

原创 混合效应模型

在混合效应模型中,固定效应和随机效应被同时考虑,固定效应用于解释整体样本的变化,而随机效应用于解释不同个体或组之间的差异。3. **模型诊断**:对拟合的模型进行诊断,检查模型的拟合度和假设是否满足。4. **解释结果**:解释模型的参数估计,包括固定效应和随机效应的影响,以及它们与研究问题的相关性。2. **拟合模型**:使用统计软件(如 R 中的 lme4 包)拟合混合效应模型,并估计模型参数。5. **预测和推断**:使用拟合的模型进行预测和推断,包括估计新数据的响应变量的值和计算置信区间。

2024-04-24 16:12:59 422

原创 AutoModel.from_pretrained实例化的数据输出格式

是 Hugging Face Transformers 库中定义的一个类,用于表示模型的输出。这个类通常用作预训练模型的前向传播函数的输出。这个类包含了模型的各种输出,其中包括前向传播的结果、过去的注意力权重以及交叉注意力权重。要使用这个类,您可以像使用其他 Python 类一样操作它。例如,您可以访问它的属性或者调用它的方法来获取模型的输出。这个类的实例通常作为模型前向传播函数的返回值,并且可以用于进一步的后处理、解码或者获取感兴趣的信息。

2024-04-24 15:15:21 328

原创 python类中变量、方法的类型和调用

2. **实例变量(Instance Variables)**:实例变量是属于特定实例的变量,每个实例都有自己的实例变量副本。在这个示例中,`class_variable` 是类变量,`instance_variable` 是实例变量,`local_variable` 是局部变量。1. **类变量(Class Variables)**:类变量是属于整个类的变量,它们在类的所有实例之间共享。3. **局部变量(Local Variables)**:局部变量是在方法内部定义的变量,它们只在方法内部可见。

2024-04-23 17:42:50 318 1

原创 huggingface之Transformers学习笔记

AutoProcessor 始终有效的自动选择适用于您使用的模型的正确class,无论您使用的是Tokenizer、ImageProcessor、Feature extractor还是Processor。1)对于文本,使用分词器(Tokenizer)将文本转换为一系列标记(tokens),并创建tokens的数字表示,将它们组合成张量。4)多模态输入,使用处理器(Processor)结合了Tokenizer和ImageProcessor或Processor。

2024-04-22 11:11:49 173

转载 vim 折叠代码

对于python,缩进是语法本身。

2024-04-18 14:44:14 12 1

原创 AutoModel和GPT2Model区别

它是`AutoModel`的一个子类,但它针对的是GPT-2模型。如果你已经确定要使用GPT-2模型,并且不需要自动选择其他类型的模型,那么直接使用`GPT2Model`是更简单的选择。1. **AutoModel:** `AutoModel`是一个通用的模型类,可以用来加载任何预训练的Transformer模型,包括BERT、GPT、RoBERTa等等。如果你希望能够动态地选择加载不同类型的模型,并且希望能够适应不同的任务和模型架构,那么使用`AutoModel`是一个更好的选择。

2024-04-11 17:17:24 175 1

原创 tokenizer() 和 tokenizer.encode()

是 Hugging Face Transformers 库中的两种不同的方法,它们用于文本编码的不同情况。方法适用于对单个文本进行简单的编码操作。您可以根据需要选择合适的方法来进行文本编码。方法通常用于对批量文本进行编码,并提供了更多的灵活性和功能,而。

2024-04-11 10:41:20 261

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除