自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(113)
  • 收藏
  • 关注

原创 Neural Network-神经网络算法本质

NN神经网络本质:forwad和back propagation。普通实现方式、pytorch实现、tensorflow实现损失函数loss function

2022-12-08 13:02:13 4000

原创 GNN python packages

python packages related to GNN models

2022-10-25 11:33:34 1240

原创 GNN Torch functions

PyTorch functions related to GNN models

2022-10-25 11:32:38 2694

原创 GNN Algorithms(9): 多模态Multi-Modal、多任务Multi-Task

多任务学习 (Multi-Task Learning, MTL)是一种将多个相关任务学习到一个模型中的方法,以提高模型的泛化能力和学习效率。在CV领域,多任务学习常用于图像分类、目标检测、语义分割等任务的联合学习。多模态学习 (Multi-Modal Learning, MML)是一种将多种类型的数据(e.g. image, text, audio, v ideo等)作为输入的学习方法,以提高模型的表现力和泛化能力。

2024-07-17 11:16:50 812

原创 GNN Algorithms(8): Knowledge Distillation 知识蒸馏

知识蒸馏 knowledge distillation核心:近似思想。student model -> 近似模拟teacher model。

2024-07-15 17:03:27 148

原创 LLM 研究方向(三): LLM Hallucinations--RAG

,是一种结合了信息检索 retrieval和生成技术generation的nlp方法。概念:LLM hallucinations 幻觉指的是LLM生成的内容中。这些幻觉内容看起来像是真实和连贯的,但实际上是错误的或没有依据的。提升数据质量、引入验证机制、加强监督学习、使用组合模型、后处理检查。通过这些方法,可以有效减少幻觉,提高生成内容的准确性和可靠性。包含虚构、不准确或误导的信息。RAG方法(检索增强生成)信息检索retireval。得到的有用信息作为答案辅助。1.4.4 使用组合模型。

2024-07-10 08:53:58 920

原创 LLM 研究方向(二): LLM Alignment--RLHF、DPO

1. 视觉语言模型CLIP(Contrastive Language-Image Pretraining),通过对比学习,将图像和文本嵌入到一个共同的特征空间中,使得相关联的图像和文本对pair在该空间中距离较近,而不相关的图像和文本对距离较远。{"text1": "生成的文本1", "text2": "生成的文本2", "preference": 1}, # preference=1表示text1更好。每次迭代过程中,model生成新的文本样本,收集人类反馈,更新奖励模型,然后通过RL微调语言模型。

2024-07-10 08:38:52 769

原创 LLM 研究方向(一): LLM Prompts--p-tuning、LoRA

paper: Optimizing Continuous Prompts for Generation, 就是在input tokens前面加上几个与任务相关task-specific的tokens,并用单独训练生成embeddings。Note:tokens不拼接!原有的input tokens依旧用transformer生成embeddings,并且保持transformer参数不变。优点:实现简单、高效训练、任务一致性。

2024-07-08 10:21:23 1097 2

原创 机器学习之数学基础(七)~过拟合(over-fitting)和欠拟合(under-fitting)

这时模型学嗨了,不肯停止,一直持续学习,学到了很多内容:有翅膀、嘴巴长、脖子形状像2、白色等特征的就是天鹅。结果:这时飞过来的黑天鹅被误判为不是天鹅,因为黑色从来没有出现过,这使得模型把颜色这种局部特征过度学习成了全局特征,从而产生了识别误差。结果:该模型将所有符合这两个特征的动物都预测为天鹅,比如鹦鹉、山鸡等,这就导致了误差的产生。模型学习到的天鹅特征太少了,导致区分标准过于粗糙,从而导致模型不能准确地识别出天鹅。模型对训练集以外的预测能力称为模型的泛化能力,追求这种泛化能力是机器学习的目标。

2024-06-25 19:47:21 993

原创 GNN Algorithms(7): DDPM

扩散模型 diffusion model:正向扩散过程 Forward Diffusion Process、反向生成过程 Reverse Generation Process.本质:DDPM, Denoising Diffusion Probabilistic ModelT steps 加噪:没有参数-> 生成一个符合正态分布的纯噪声图像xt,就是噪声noise。T steps 去噪:有参数-> 从噪声noise中恢复一个清晰、有意义的图像。

2024-06-21 15:17:24 773

原创 LLM Algorithms(1): Flash Attention

Flash Attention 分而治之的思想。

2024-06-09 17:32:47 163

原创 机器学习之数学基础(六)~时间复杂度和空间复杂度

核心-》高性能的代码 = 相应速度快的代码。需要初级程序员了解算法,灵活地运用算法。-》发明设计一款算法:要去推导证明算法的可行性。数据结构是为算法服务的,而算法又需要作用在特定的数据结构上。-》谁的算法快,谁的算法更优!!如果两种算法实现的速度差不多,那我们还可以去评价算法所占用的空间。时间复杂度:执行当前算法所消耗的时间。--》快空间复杂度:执行当前算法所消耗的内存空间。--》省。

2024-06-03 20:09:29 1064

原创 机器学习之数学基础(五):贝叶斯定理 Bayes Theorem

因为是已发生事实事件Evidence,需要对所有样本进行测试,才能得到事实概率!,P(E)可以分为两部分,一部分是E和H的交集,另一部分是E和。事件A发生概率 * 事件A发生的条件下,B发生的概率。先写事件A发生概率,然后写乘以条件概率P(B|A),事件B发生概率 * 事件B发生的条件下,A发生的概率。先写事件B发生概率,然后写乘以条件概率P(A|B),随机事件:是指随机试验中可能发生或不发生的结果。P(E)一般是指后验概率,它的概率计算很复杂,从二概率公式推广到多概率贝叶斯公式。

2024-06-01 22:04:33 595

原创 C++编程基础(一):Introduction

C++是一种强类型、静态类型、支持多范式的编程语言,最初是由Bjarne Stroustrup在1979年开发的。

2024-05-30 08:58:14 117

原创 强化学习 model-01:CartPole

强化学习是一种机器学习范式,其核心思想是通过agent与环境的交互,以达到实现某种目标的目的。在强化学习中,agent根据环境的反馈(reward or penalty)来调整其行为,以使得未来的预期奖励最大化。强化学习在许多领域中都有广泛的应用,如游戏、机器人控制、金融交易。

2024-01-16 09:03:37 515

原创 GNN PyG~torch_geometric 学习理解

其中EdgeIndex(edge_index=tensor([[1, 2], [0, 0]]), e_id=tensor([10, 2]), size=(3, 1))是第一层采样得到的bipartite图, EdgeIndex(edge_index=tensor([[2, 3, 0, 3, 0, 4], [0, 0, 1, 1, 2, 2]]), e_id=tensor([2, 8, 6, 9, 4, 0]), size=(5, 3))是第二层采样得到的bipartite图。

2023-10-01 19:45:43 934

原创 GNN advanced knowledge

目标时将BP loss value限定在20-40之间。,这都会导致model performance很差。在BP时陷入梯度消失或梯度爆炸。避免构建的GNN model。

2023-09-10 15:00:14 188

原创 GNN Code Tips

【代码】GNN tips。

2023-08-05 22:21:06 393

原创 深入浅出PyTorch: pytorch教程

Module类是torch.nn模块里提供的一个模型构造类(nn.Module),是所有神经网络模块的基类,我们可以继承它来定义我们想要的模型pytorch模型定义应包括两个主要部分:各个部分的初始化(__init__);数据流向定义(forward)基于nn.Module,我们可以通过SequentialModuleList和ModuleDict三种方式定义pytorch模型。

2023-03-15 13:56:05 3987

原创 GNN algorithms(6): GraphCL

图对比学习 GCL: GCL是一种针对图数据的自监督学习算法。--》对给定的大量无标签数据,图对比算法旨在训练出一个图编辑器,即GNN,用以得到图表示向量。

2023-03-13 18:44:58 1121 2

原创 强化学习RL 05: Alpha Go、Alpha Zero

problem:会对未见过的操作懵逼,然后break down。

2023-02-28 18:26:43 467

原创 强化学习RL 04: Actor-Critic Algorithm

actor: 是policy network,通过生成动作概率分布,用来控制agent运动,类似“运动员”。critic: 是value network,用来给动作进行打分,类似“裁判”。

2023-02-28 15:00:34 1049

原创 强化学习RL 03: Policy-based Reinforcement Learning

用一个神经网络来近似策略函数π。

2023-02-27 18:17:26 765

原创 强化学习RL 02: Value-based Reinforcement Learning

DQN和TD更新算法。

2023-02-27 15:52:47 1172

原创 强化学习RL 01: Reinforcement Learning 基础

把Ut当作未来所有动作Ai和所有状态Si的一个函数,未来的动作和状态都有随机性,动作Ai的概率密度函数是policy function π,状态Si的概率密度函数是状态转移函数p,期望就是针对未来Si和Ai求得,出了St和At,其余的随机变量都是积分积掉,被积掉的是At+1,At+2等动作、St+1,St+2等动作,求期望得到的动作价值函数Qπ,其只跟当前动作at、状态st有关。Ut是个随机变量,它依赖于未来所有的动作At,At+1,At+2,...和未来所有的状态St,St+1,St+2,...

2023-02-27 15:13:40 769

原创 预训练机制(3)~GPT、BERT

Bert判断句子B中答案位置的做法是,将句子B中的每一个词得到的最终特征向量T'经过全连接层(利用全连接层将词的抽象语义特征转化为任务指向的特征)后,分别与向量s和e求内积,对所有内积分别进行softmax操作,即可得到Tok m作为答案起始位置和终止位置的概率。在进行单句标注任务时,需要在每个词的最终语义特征向量之后添加全连接层,将语义特征转化为序列标注任务所需的特征,单句标注任务需要对每个词都做标注,因此不需要引入辅助向量,直接对经过全连接层后的结果做softmax操作,即可得到各类标签的概率分布。

2023-02-16 09:27:52 1079

原创 深度学习基础知识(三):模型概念

训练任务中的每个任务的数据分为 训练集(Support set) 和测试集( Query set);对于人类而言,一个小朋友成长过程中会见过许多物体的照片,某一天,当Ta(第一次)仅仅看了几张狗的照片,就可以很好地对狗和其他物体进行区分。层训练单位是任务,也就是说,元学习中要准备许多任务来进行学习,第二层训练单位才是每个任务对应的数据。数据可以分为训练集、测试集和验证集。在元学习中,训练单位分层级了,元学习可以有效的缓解大量调参和任务切换模型重新训练带来的计算成本问题。,改善数据价值密度低的问题。

2023-02-16 09:24:03 352

原创 预训练机制(1)~ 预训练、语言模型、ELMo

机器学习:偏数学(《统计学习方法》--李航)深度学习(人工智能)项目:大数据支持(主流)problem: 目前很多项目没有大数据支持(小数据)

2023-01-29 14:56:57 640

转载 [转载]GNN algorithm(5): Graph Encoder-Decoder Mechanism

介绍Graph Representative Learning的 Encoder-Decoder框架。

2023-01-07 18:41:30 751

原创 GNN algorithm(4): HAN, Heterogeneous Graph Attention Network

solution: HAN(Heterogeneous graph attention network)node-level attention: learn the importance between a node and its meta-path based neighborssemantic-level attention: is able to learn the importance of different meta-paths.

2023-01-03 18:06:00 806 1

原创 GNN基础知识

GNN基础知识:拉普拉斯矩阵,图傅里叶变换,切比雪夫多项式,attention机制

2022-12-27 18:45:13 2274

原创 GNN algorithms(3): Tri-party Deep Network Representation

conceptrepresent each node 表示节点 in a vector format rather than others。Aim:to learn.learn optimal node representation. 节点信息在本论文中不是一个单独的概念,而是概括性的概念。

2022-12-26 18:16:00 852

原创 GNN Algorithms(2): GCN, Graph Convolutional Network

Essence: 传统的卷积运算无法在graph上进行运算,所有借由傅里叶变换Fourier Transformation实现在graph上的卷积运算,得到graph convolution,退出GCN(graph convolutional network)。

2022-12-19 14:17:46 714

原创 GNN Algorithms (1): DeepWalk

Graph Embedding使用低维稠密向量的形式表示图中的节点,使得在原始图中相似的节点在低维表达空间中也相似。DeepWalk关键基础是Random Walk和word2vec,word2vec。图表示Graph Embedding based on。

2022-12-16 14:21:17 712

原创 GNN Tensorflow packages

tensorflow packages for GNN models

2022-11-21 14:31:12 1641

原创 GNN Event Detection Paper(1): Reinforced, Incremental and Cross-lingual Event Detection From Social

FinEvent是GNN event detection method for social streaming messages,利用强化学习RL从加权异构图中挑选neighbor,然后利用GAT作为聚合器Aggregator将邻居节点embedding聚合成最终的single neighbor embedding,继而输入到DBSCAN中做event detection。其中,cross-lingual是基于迁移学习transfer learning做的,target domain:少量标签数据。

2022-10-20 19:53:08 925

原创 Linux server 服务器基本操作

注意事项修改文件读取、保存路径。

2022-10-01 14:05:28 3294

原创 NLP: LDA主题模型

(1) 一个函数:gamma函数(2) 四个分布:二项分布、多项分布、beta分布、Dirichlet分布(3) 一个概念和一个理念:共轭先验、贝叶斯框架(4) 两个模型:pLSA和LDA(5) 一个采样:Gibbs采样。

2022-08-31 18:10:20 12200

原创 医学数据挖掘流程(五):数据统计

于鹏-提取上下四分位代码。

2021-11-15 09:51:18 1099

原创 医学数据挖掘流程(六):写报告+模型集成

纳排发现问题,要准确描述问题、统计分析相关数据。研究方向:研究对象与目标变量是直接相关的。最基础的理论基石错了,后面一切都是枉然。方向思路:与team同事探讨。并提出自己立场的解决方案。

2021-11-11 21:17:13 631

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除