学习笔记
文章平均质量分 63
MoonBlue:)
还有100多天就能毕业啦!!
展开
-
关于PyCharm ndarray中包含‘\n‘的问题
项目场景:工具:pycharm 2019.2.6 professional问题描述在做一个观察时间序列数据突变的代码(参考stackoverflow:python代码),一切正常,最终输出的图片也很正常但是,因为业务既需要图片也需要数据(格式类似:“0 0 0 1 1 0 0”),因此debug看了一下数据,发现数据中包含’\n’,如图:观察数据每6个元素会出现一次\n,但是输出出来没有\n原因分析:应该是pycharm显示数据的原因。。。因为换成vs code写就没有’\n’了。。。所原创 2022-04-14 13:39:16 · 877 阅读 · 0 评论 -
DialogueRNN: An Attentive RNN for Emotion Detection in Conversations论文笔记
解决的问题解决方法实验补充Majumder N, Poria S, Hazarika D, et al. Dialoguernn: An attentive rnn for emotion detection in conversations[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2019, 33(01): 6818-6825.解决的问题论文原文: Currently systems do not .原创 2022-04-12 15:55:51 · 350 阅读 · 0 评论 -
学术论文写作注意事项
整理自中国人民大学 赵鑫老师汇报课件Introduction交代研究任务阐述研究现状并总结不足提出新的解决思路给出新方案的设计总结论文的贡献(简略)及实验结论注意事项:包装适度、不要随意给出非常主观的意见、不要随意使用一些general的词汇(knowledge,context,information)、不要随意夸大模型放大贡献解释主要术语解释清楚模型的主要设计思路、技术路线(画图、举例子)强调创新点:需要写出一到两句非常中肯又学术性的话来总结自己的创新点(可以放在段首)总结可以.原创 2022-04-06 20:24:50 · 425 阅读 · 1 评论 -
github上传项目出现everything up-to-date问题
git add 后忘记git commit ,git commit 后再push原创 2021-10-08 17:26:23 · 129 阅读 · 0 评论 -
Attention,Transformer知识梳理
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、Attention1、attention2、self-attention3、multi-head attention4、Masked self-attention二、Transformer总结引用:前言研究生开学一个月啦,暑假学习的东西太不深入,也不系统。九月阅读的论文有时间也需要找个时间整理。我看了吴恩达老师的序列模型课程和台大李宏毅老师的课程,他们的课程都提到了Atention的内容,吴恩达老师的课程讲述得比较浅原创 2021-10-06 20:16:45 · 651 阅读 · 0 评论