![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 69
学习使我爆炸升天螺旋快乐
这个作者很懒,什么都没留下…
展开
-
WL in NFPGA
开始梳理以下论文的内容,拒绝拖延症老师好像预料到我会不理解Wear Leveling的意思,解释了这是磨损均衡的意思,所以论文的内容是介绍NFPGA中BRAM的磨损均衡。FPGA中BRAM是一个重要的组成部分,主要用来存储数据和参数。现在的BRAM主要基于SRAM,缺点是有能量泄露和低密度(?这里记录以下,有空的时候再详细了解)。随着处理技术的发展,SRAM成为构建高容量低能耗的FPGA的阻碍。为了解决这个问题,可以使用NVM(非易失存储)来取代SRAM。而NFPGA主要面对的问题是寿命问题。磨原创 2021-11-28 16:56:24 · 265 阅读 · 0 评论 -
GTNs论文笔记(三)
在此补充一下上次遗留的问题。像这种只有一个分量为1,其他全为0的向量原来有个名字叫one-hot,之前在论文里出现过但是我没在意,百度了一下才恍然大悟。还有上次提到的单位矩阵问题。从矩阵相乘的过程中可以看出,原图间的边在相乘的过程中消失了,并不能被学习到。并且每次做相乘操作都会增加学习到的路径的长度,而对于有些问题来说,短路径也很重要。解决上述两个问题的办法就是在侯选矩阵中加入单位矩阵啦。已知单位矩阵和任何矩阵相乘仍是该矩阵本身,则如果GT层选择的矩阵之一是单位矩阵的话就可以产生它自身的图结构。原创 2021-06-01 17:33:49 · 640 阅读 · 6 评论 -
GTNs论文笔记(二)
接下来是元路径的产生过程。图示如下:看看下面的解释。这里的soft select我一直不太懂什么意思,暂且简称选择。在邻接矩阵集合A(上文提到的NxNxK张量)中选择邻接矩阵,括号内写着边类型。我是这样理解的,A可以看成有K层,每一层都是一个邻接矩阵,这个邻接矩阵仅包含第k种边,所以选择邻接矩阵实际上是在进行选择一种边的操作。学习到的新元路径图通过选择的两个邻接矩阵Q1,Q2的乘积表示。选择邻接矩阵的过程实际上是通过1x1卷积完成的候选矩阵的加权和,并且权重是经过softmax的非负数。...原创 2021-05-25 11:47:13 · 558 阅读 · 0 评论 -
GTNs论文笔记(一)
发现看错论文了,重头开始的一天。在GTNs前,GNN已经得到了广泛的应用,诸如图分类,连接预测,节点分类等。在网上看到的资料说,连接预测可以用作兴趣推送。GNN已经被证明在社交网络,引文网络,推荐系统等十分高效。虽然GNN取得了很大的成功,但其仍有不足之处,它假定图结构是固定且同质的。若一张有缺失边和错边的噪声图可能会将错误的邻居进行无效的卷积。针对异构图,最简单的做法是直接忽视边和点的种类,直接把它们当做同质图看待,显然这种简单粗暴的方式并不是最优方案,不能展现类型的信息。更常见的做法是人工设原创 2021-05-24 16:46:02 · 594 阅读 · 0 评论 -
论文笔记(二)
刚才的操作可以把非叶子节点表示出来,但在计算的过程中,所有的后代都是被平等对待的,没有附加权重。有一句话不是很理解:暂且记下;所以接下来我们将在模型里引入权重来反映子树的结构,引入层次嵌入的方法生成向量S。层次嵌入的效率将在后面的文章被实验证明。层次嵌入的图示如下:让我们先来翻译一下图示下的文字,每一个模块中是一个嵌入向量。其中含有一些未知变量,那么来看看文章是怎么具体解释的。L,N,R都是遵循上文的解释。Vij的通俗解释是某叶子节点j到某根节点i路上的所有非叶子节点..原创 2021-05-17 22:39:40 · 345 阅读 · 0 评论 -
论文笔记(一)
还有几周才轮到我,先从开始读到现在的过程记录下来,省得到时候重头再来。对NLP什么都不懂就开始读这个属实很困难,能理解多少是多少吧。首先看看论文里都有什么图第一张图,展示了树结构层级累积的过程。将一个语义树转换为向量S,向量S接着从垂直方向自底向上累积。好的,不怎么懂。第二张图,层级嵌入。每一个模块都是一个嵌入向量。现在还不知道什么意思。第三张图,子树掩盖。看起来是把某些信息掩盖掉。第四张图,基于树的注意力机制的编码和解码过程,圆箭头表示进行了层次累计。目前不知道原创 2021-05-11 16:12:12 · 216 阅读 · 0 评论