- 博客(12)
- 收藏
- 关注
原创 【巨巨巨无敌详细的colab使用教程(包含使用云谷歌网盘)】
作为成绩保研的我,对技术类工具的掌握程度为0,联系完老师就让学pytorch。跟了李宏毅老师的课程,也有课后作业,发现根本看不懂,课上助教也讲了怎么使用colab,当时没学过,看视频跟了一遍就忘了。现在读研开始上手代码,经常用colab调试写的代码或者函数,想起来之前自己的不知所措,于是写下此篇教程,希望可以帮助到哪些刚入门的人。【前提】:电脑需要科学上网。
2024-03-28 20:41:50 873
原创 【vscode无法选择解释器】
vscode连接远程服务器后无法选择python解释器,在扩展列表中python和pylance一直显示需要重新加载,点击后又重新回到此页面,依旧是需要重新加载。点击右下角的python,一直没有解释器的选项。
2024-03-25 19:54:04 351
原创 【列表或字典在代码间的移植】
在多模态任务中,常常需要使用预训练的模型去提取不同模态的特征信息,本代码可以搭建在代码内,直接使用源码来训练模型并获取表示,再将特征信息导入到多模态代码内进行后续的特征融合、推理等操作。
2024-03-23 17:01:09 194
原创 【ConvE巨无敌详细的复现】
(如果电脑不能安装cuda,就不能用CUDA_VISIBLE_DEVICES=0跑了,代码里也没有不用gpu的选项,找个可以安装cuda的服务器跑吧,或者只能把代码改成cpu版本了)No module named ‘xxxx’使用pip指令安装即可,如缺少nltk安装包。notice:链接内说预处理只需要做一次,但如果不加–preprocess会报错。这里没有特别要求torch版本和cuda版本,就根据电脑配置安装适用的版本即可。不断运行该指令,如果报错就找上面的链接解决错误。
2024-03-21 10:32:43 647 1
原创 【ERROR: Failed building wheel for tokenizers报错(已解决)】
自己建的环境是3.7的,使用环境进入python是3.10版本。再次检查python版本,是创建环境时的python版本。再使用最上面的指令安装transformers,成功!使用固定版本号安装transformers包一直报错。直到路径前没有任何环境,再进入自己的环境。使用两次如下指令退出环境。
2024-03-07 18:58:07 1732 1
原创 【Structure Pretraining and Prompt Tuning for Knowledge Graph Transfer论文笔记】
关键词(方法/相关描述):KGTransformer;KRF知识表示与融合模块:该模块从KG中学习元素的表示,并与任务表示进行融合。由于跨任务融合时需要考虑的KGs和视角不用,任务之间进行了重复和临时的KRF模块设计。由于需要考虑的KG和角度的不同,KRF模块在KG相关的任务模型中存在差异,为ad hoc KRF模块设计留下重复工作。如果任务KG包含与用于预训练的KG不同的实体和关系,基于嵌入的方法不能向下游任务模型传递有价值的信息,因为嵌入是缺失的。
2023-11-14 23:39:08 133 1
原创 【Convolutional Network Embedding of Text-Enhanced Representation for Knowledge Graph Completion】
关键词(方法/相关描述):TECRL;文本增强;嵌入表示;CNN;文本描述信息;特征信息;注意力机制;word2vec①当前的研究主要集中在知识图谱中的三元结构和关系路径的知识表示,而没有充分利用外部文本信息来语义上补充知识表示。②然而,现有的知识库,如智能健康和情感关怀系统,相对匮乏,结构性知识不完整,因此知识图谱补全变得至关重要。①高复杂度影响大规模知识图谱的构建:大多数人工神经网络降维方法都是在低维空间中找到知识的语义向量表示,同时保留原始图的结构特征。
2023-11-13 21:29:27 51 2
原创 【LM作为知识库: On Entity Representations, Storage Capacity, and Paraphrased Queries】
关键词(方法/相关描述):PLM;LM as KB范式只在非常有限的环境中被考虑LMs as KBs:在训练期间,LM 遇到在其训练数据中表达的世界知识事实,其中一些以某种形式存储在 LM 的参数中。训练后,可以通过合适的自然语言查询从 LM 的参数中恢复一些存储的事实。探讨的问题:数百万的实体如何表示在LMs中?(KB由数百万的实体,而LM词语库的尺寸不超过100k项)—>比较了将LM-as-KB扩展到数百万个实体的三种方法(符号表示;表面形式表示和连续嵌入表示)LMs存储世界知识的能力如何?
2023-11-13 18:56:40 36
原创 【Joint Language Semantic and Structure Embedding for Knowledge Graph Completion阅读笔记】
关键词(方法/相关描述):csdn论文笔记模板
2023-11-12 21:37:08 37
原创 【用于KGC的上下文LM:Contextual Language Models for Knowledge Graph Completion阅读笔记】
背景:KG incpmplete and inconsistent解决的问题:使用NLMs解决KGC解决思路:GPT-2 based KGC模型;将三元组分类视作序列分类问题具体方法:从三元组分类的GPT-2模型微调中获得了初步结果受KG-BERT的启发,本文研究基于GPT-2的KGC模型,以三元组分类为子任务。将KG中三元组视作句子并将三元组分类视为序列分类问题。
2023-11-12 21:23:00 45 1
翻译 《Collaborative Policy Learning for Open Knowledge Graph Reasoning》
CPL;多代理;强化学习;Open KGR;交替训练;分布式表示;自适应采样;PCNN-ATT;浙江大学傅聪可解释的知识图谱推理,很多方法因为在稀疏图谱上缺乏证据链路,导致性能受限;现存的神经网络图谱推理方法挑战性能受图谱的稀疏性和完整性的影响大(缺失的边使得代理很难找到通往目标实体的)证据链路现存的方法都设定图谱是静态的并且不能适应动态丰富KG。
2023-11-12 19:20:24 38 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人