![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文研读
文章平均质量分 72
Bessie_Lee_gogogo
24届毕业生,已就业,后续内容输出至微信公众号:木子计算机领域学习。
方向:1、预测算法研究(梦想去总部做算法);2、CTF比赛(寻找初心);3、碎碎叨叨。
感谢大家关注,如果曾经的大学时期博客能让帮助到大家,希望后续工作时期公众号的博文也能帮助大家。
展开
-
批量提取SemEval 2014 Task 4-aspect_term的xml文件为csv
把XML数据转换为csv文件最后生成原创 2024-04-23 17:58:00 · 365 阅读 · 0 评论 -
【论文代码复现】Translating Embeddings for Modeling Multi-relational Data中TransE代码实现+遇到的错误
文章目录1、相关链接2、代码报错汇总2.1、报错:AssertionError: Torch not compiled with CUDA enabled2.2、TransE部分报错(憨憨报错)2.3、文件找不到3、运行结果截图4、完整代码+注释本文创建初心:想为看Translating Embeddings for Modeling Multi-relational Data这篇文章的人提供一个完整的资源与遇到的情况的一个汇总【注】本文的代码来源于GitHub上面一位优秀的博主,所有的相关链接都会原创 2022-04-18 20:53:54 · 1038 阅读 · 19 评论 -
【论文研读】 Translating Embeddings for Modeling Multi-relational Data论文理解
文章目录embedding知识图谱embedding首先,我们得知道什么是embedding?他有什么优点?他为什么要被开发出来?传统的one-hot编码不可以吗?接下来让我们一一进行解决1、什么是embedding?① 维基百科的官方回答:② 自己的理解:(这个结合了一下一篇大佬的博客思路进行理解的)首先,embedding在pytorch或者tf中会被经常使用,m代表的是单词的数目,n代表的是词语嵌入的维度。其次,词嵌入(word embedding)是一个大矩阵,一行代表的是一个单词。原创 2022-04-03 10:58:51 · 2316 阅读 · 4 评论