![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 92
xiaoyan_lu
这个作者很懒,什么都没留下…
展开
-
记录一次运行ConvMF项目,论文Convolutional Matrix Factorization for Document Context-Aware Recommendation
总结一下本次ConvMF的配置过程,主要的难点在于数据集找不到=》通过论文找打了不懂如何配置超参数=》阅读readme和论文中的实验部分上古环境的搭建=》chat-gpt,github,CSDN等广大前人的经验对于复现论文的项目,我们首先要找到数据集,没有数据,一切白搭。同时,也要明白数据集的信息,以及各个文件的作用以及内容表达的含义,以便快速对整体项目的理解。此外,配合论文中实验部分的理解,我们可以对整个项目有个宏观上的认知。原创 2024-06-23 18:16:49 · 706 阅读 · 0 评论 -
Attention Is All Your Need论文翻译
在这个部分,我们把自注意力层的各种方面与循环层和卷积层进行比较,这些层通常被用于将符号表示的一个可变长度序列(x1,x2,..,xn)映射到另一个等长序列(z1,z2,...,zn),其中 xi, zi ∈ Rd,例如典型序列转换编码器或者解码器中的隐藏层。随着激励我们使用自注意力,我们考虑三个需求。一是每层的总计算复杂度。另一个是可以并行化的计算量,这是以所需最小顺序操作数量来衡量。第三个是在网络中远程范围依赖之间的路径长度。学习远程依赖是许多序列转换任务中的关键挑战。原创 2024-02-15 18:48:22 · 952 阅读 · 0 评论 -
Attention Is All Your Need论文笔记
作者提出了一个新的简单网络架构transformer。该模型是基于注意力机制,完全免去递推和卷积。模型的质量上更好,有着更好的并行性,训练地速度极大地减少,可以很好地泛化到其他任务中。原创 2024-02-15 18:43:22 · 1407 阅读 · 1 评论