经典论文
-
1、Jointly embedding the local and global relations of heterogeneous graph for rumor detection:https://paperswithcode.com/paper/jointly-embedding-the-local-and-global/review/
-
2、Rumor Detection on Social Media with Bi-Directional Graph Convolutional Networks:https://paperswithcode.com/paper/rumor-detection-on-social-media-with-bi/review/
-
3、GCAN: Graph-aware Co-Attention Networks for Explainable Fake News Detection on Social Media:https://paperswithcode.com/paper/gcan-graph-aware-co-attention-networks-for/review/
-
4、Heterogeneous Graph Attention Networks for Early Detection of Rumors on Twitter:https://paperswithcode.com/paper/heterogeneous-graph-attention-networks-for-1/review/
-
5、Interpretable Rumor Detection in Microblogs by Attending to User Interactions:https://paperswithcode.com/paper/interpretable-rumor-detection-in-microblogs/review/
Embedding
简单来说,embedding就是用一个低维的向量表示一个物体,可以是一个词,或是一个商品,或是一个电影等等。这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,Embedding能够用低维向量对物体进行编码还能保留其含义的特点非常适合深度学习
- Text Embedding
图神经网络训练
-
神经网络中Batch Size的理解:https://www.cnblogs.com/yibeimingyue/p/11697761.html
-
Epoch、Batch Size和迭代:
比如对于一个有 2000 个训练样本的数据集。将 2000 个样本分成大小为 500 的 batch,那么完成一个 epoch 需要 4 个 iteration。 -
如何估算深度神经网络的最优学习率:https://www.jiqizhixin.com/articles/2017-11-17-2
-
Adam算法:
深度学习模型通常由随机梯度下降算法进行训练。随机梯度下降算法有许多变形:例如 Adam、RMSProp、Adagrad 等等。这些算法都需要你设置学习率。学习率决定了在一个小批量(mini-batch)中权重在梯度方向要移动多远。 -
交叉验证:https://www.cnblogs.com/pinard/p/5992719.html
1.将所有数据集分成5份2.不重复地每次取其中一份做测试集,用其他四份做训练集训练模型,之后计算该模型在测试集上的: M S E i MSE_i MSEi
3.将5次的 M S E i MSE_i MSEi取平均得到最后的MSE
全连接层
- 全连接层、softmax的loss :https://blog.csdn.net/u014380165/article/details/77284921
- CS231n: Convolutional Neural Networks for Visual Recognition:http://cs231n.stanford.edu/syllabus.html
- 直观理解神经网络最后一层全连接+Softmax:https://www.cnblogs.com/shine-lee/p/10077961.html
文本处理知识
- 深入TextCNN(一)详述CNN及TextCNN原理:https://zhuanlan.zhihu.com/p/77634533
- TextCNN 代码详解(附测试数据集以及GitHub 地址):https://www.cnblogs.com/ModifyRong/p/11442595.html
图神经网络
- 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一):https://www.cnblogs.com/SivilTaram/p/graph_neural_network_1.html