![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文及源码解读
文章平均质量分 60
深度学习、自然语言处理论文及源码解读
木大木打木大
专门搞nlp的
展开
-
bert源码(pytorch)超详细解读!!!
modeling.py此文章是对transformers的bert源码的解读# coding=utf-8from __future__ import absolute_import, division, print_function, unicode_literalsimport copyimport jsonimport loggingimport mathimport osimport shutilimport tarfileimport tempfileimport sys原创 2021-05-05 15:23:13 · 3221 阅读 · 1 评论 -
如何深入吃透代码——以bert源码为例
1024节,写点东西庆祝一下之前老师总是说初学者要有深度,代码要吃透,广而不深没用,现在颇有体会:一个东西学深了,上手其他东西很轻松,甚至感觉他们都是完全一类东西。下面带大家看一下一个简单版的bert源码 。import mathimport refrom random import *import numpy as npimport torchimport torch.nn as nnimport torch.optim as optim# sample IsNext and Not原创 2020-10-24 15:49:44 · 618 阅读 · 0 评论 -
GAT图注意力网络论文源码pytorch版超详细注释讲解!!!
此代码是在GCN源码基础上更改的,代码十分相似,可先参考GCN源码超详细解析.数据集介绍cora数据集.utils.pyimport numpy as npimport scipy.sparse as spimport torch'''先将所有由字符串表示的标签数组用set保存,set的重要特征就是元素没有重复,因此表示成set后可以直接得到所有标签的总数,随后为每个标签分配一个编号,创建一个单位矩阵,单位矩阵的每一行对应一个one-hot向量,也就是np.identity(len(c原创 2020-07-09 15:15:58 · 21827 阅读 · 26 评论 -
图神经网络入门:GCN论文+源码超级详细注释讲解!
本文参考了这篇文章:https://blog.csdn.net/weixin_36474809/article/details/89379727侵删这篇文章的代码非常经典,很值得学习,如有错误请指正utils.pyimport numpy as npimport scipy.sparse as spimport torch'''先将所有由字符串表示的标签数组用set保存,set的重...原创 2020-04-25 16:45:10 · 34406 阅读 · 53 评论 -
HGAT半监督短文本分类的异构图注意网络论文阅读笔记及代码复现
Heterogeneous Graph Attention Networks for Semi-supervised Short Text Classification. Linmei Hu,Tianchi Yang, Chuan Shi, Houye Ji, Xiaoli Li论文代码复现main.py原创 2020-03-05 08:56:11 · 3427 阅读 · 12 评论