- 博客(18)
- 资源 (1)
- 收藏
- 关注
![](https://csdnimg.cn/release/blogv2/dist/pc/img/listFixedTop.png)
原创 图神经网络通用框架信息传递网络(MPNNs)
介绍信息传递网络(Message Passing Neural Networks, MPNNs)是由Gilmer等人提出的一种图神经网络通用计算框架。原文以量子化学为例,根据原子的性质(对应节点特征)和分子的结构(对应边特征)预测了13种物理化学性质。查看论文原文请点击这里。机制理论MPNN的前向传播包括两个阶段,第一个阶段称为message passing(信息传递)阶段,第二个阶段称为...
2019-12-13 22:14:30
10834
7
原创 位运算刷题技巧
刷题时如果出现O(1)的空间复杂度要求,或者是不能用加减乘数的符号来实现加减乘除,可以考虑位运算。以下的相关题目均为Leetcode上的题目。几个知识点:1、位运算是基于补码进行的。2、最小的负数补码为0b1000....000,其不存在原码和反码。例如一个8位的整数能表示的范围是[-128, 127],其中-128的补码为0b1000 00003、如果a^b=c,那么有c^b=a和c^a...
2020-03-02 19:22:47
772
原创 Python实现栈的常用语法
单调栈单调栈里的元素是单调的。它的功能通常是:给定一个数组A,对每个给定的索引i,寻找数组中第一个大于(或小于)A[i]的位置。例如,我需要寻找数组中第一个大于A[i]的位置,则使用递减单调栈。假设给定的数组是[1,5,2,6,8,4],下标从0开始,我们很容易可以得到结果res=[1,3,3,4,-1,-1]。过程是这样的第一个循环:1入栈,此时stack=[1]第二个循环:5比栈顶...
2020-02-18 13:44:59
603
原创 Python实现二叉树刷题的常用语法
二叉树结构class TreeNode: def __init__(self, x): self.val = x self.left = None self.right = None前序遍历迭代# 迭代法,利用栈的思想,先进先处理def preorderTraversal(self, root): if not r...
2020-02-15 00:18:42
635
原创 Torch geometric GatedGraphConv 源码分析
Torch geometric GatedGraphConv 源码分析相关论文公式GatedGraphConv源码相关论文Gated Graph Sequence Neural Networks公式hi(0)=xi ∥ 0(1)\mathbf{h}_i^{(0)}= \mathbf{x}_i \, \Vert \, \mathbf{0} \tag{1}hi(0)=xi∥0(1)m...
2019-12-13 19:51:23
2300
原创 Torch geometric NNConv 源码分析
xi′=Θxi+∑j∈N(i)xj⋅hΘ(ei,j),\mathbf{x}^{\prime}_i = \mathbf{\Theta} \mathbf{x}_i +\sum_{j \in \mathcal{N}(i)} \mathbf{x}_j \cdoth_{\mathbf{\Theta}}(\mathbf{e}_{i,j}),xi′=Θxi+j∈N(i)∑xj⋅hΘ(ei,j...
2019-12-11 21:37:28
3266
10
原创 神经网络中的注意力(Attention)机制
近日看到不错的图解注意力机制的文章,保存一下。https://mp.weixin.qq.com/s/Q0Ft5bWTuiZUIQSTk7X6ZQhttps://mp.weixin.qq.com/s/Z0--eLLiFwfSuMvnddKGPQ
2019-12-07 12:16:50
2064
原创 Torch geometric GCNConv 源码分析
Torch geometric GCNConv 源码分析公式向量形式矩阵形式GCNConv源码初始化initforwardmessageupdate参考文档公式向量形式xi(k)=∑j∈N(i)∪{i}1deg(i)⋅deg(j)⋅(Θ⋅xj(k−1)),\mathbf{x}_i^{(k)} = \sum_{j \in \mathcal{N}(i) \cup \{ i \}} \frac...
2019-12-03 21:57:49
17138
29
原创 在Kaggle上安装自定义第三方库
如果你在使用Kernel时想用某个第三方库,但是kaggle上的默认环境没有,可以用下面的方法进行安装(以第三方库torch-geometric为例):打开Internet在Kernel的右边侧栏有设置区域,如图所示,让Internet这一选项置为on如果没开就进行安装会出现如下的错误:Collecting torch-geometricWARNING: Retrying (Retr...
2019-07-23 13:42:31
16273
12
原创 【RDKit】Python化学包RDkit的教程
官方地址http://www.rdkit.org/本文不再给出安装方法,读者可自行网上搜索。教程说明:如果某一行有注释,则该注释表示该行的输出读取文件RDKit能读取各种各样的化学结构文件,类和方法主要在rdkit.Chem.rdmolfiles这个模块下,因此需要先导入包from rdkit import Chem以sdf文件为例,官方给出了4种等价的读取方法,这些方法返回一个...
2019-07-10 18:07:22
13404
原创 解决安装webrtcvad出现错误的方法
今天有同学装不上webrtcvad,执行pip installwebrtcvad后在最后几行出现如下错误:building '_webrtcvad' extension error: Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://...
2019-05-23 23:44:50
10732
3
原创 【最优化】梯度投影法的几何意义
【最优化】梯度投影法梯度投影法理论投影矩阵梯度投影法例子几何意义不足之处梯度投影法理论投影矩阵待更新(这学期课太多。下学期更新)梯度投影法例子minf(x)=x2+y2s.t.x+y≥1\min\quad f(x)=x^2+y^2\\s.t.\quad x+y≥1minf(x)=x2+y2s.t.x+y≥1显然当x=y=0.5x=y=0.5x=y=0.5时有最小值,且∇f(...
2018-12-09 15:36:09
19303
13
原创 Python中列表直接赋值和使用[:]赋值的区别
In [91]: a = [2,1]In [92]: b = aIn [93]: c = a[:]In [94]: id(a)Out[94]: 1911478129032In [95]: id(b)Out[95]: 1911478129032In [96]: id(c)Out[96]: 1911479852104从上面的代码可以看出,利用[:]赋值相当于重新开辟了新...
2018-08-17 19:42:47
27114
原创 Python函数中修改变量(值传递、引用传递、可变对象、不可变对象)的深入思考
在Python中,如果将数字、字符串等传入到函数中,再改变其值,我们会发现:当函数结束时,该变量不会发生改变。In [20]: def q(x): ...: x = 2 ...:In [21]: a = 1In [22]: q(a)In [23]: aOut[23]: 1我们先令a=1,再在函数中让a的值变为2,当函数结束时,打印a的值,依旧为1。有...
2018-08-14 23:11:24
18067
1
原创 XGBOOST下一棵树的输入是什么?
最近研究XGBOOST,发现看完大篇理论推导之后根本不知道训练完一棵树后,下一棵树的输入是什么。我想到了提升树(Boosting Tree),以平方误差损失函数为例,训练完一棵树后,只需要计算训练值和实际值的残差,再对残差进行拟合就可以了。也就是说,假如我需要生成三棵树,第一棵树的拟合目标是预测输出第二棵树的拟合目标是第三课树的拟合目标是最终的预测值就是...
2018-08-10 23:35:25
2770
2
原创 A value is trying to be set on a copy of a slice from a DataFrame. Try using .loc[row_indexer,col_in
某日在捣鼓pandas时发生了warning:A value is trying to be set on a copy of a slice from a DataFrame.Try using .loc[row_indexer,col_indexer] = value instead意思是一个值正被赋给来自于DataFrame类型的切片的拷贝,使用.loc方法来赋值。遂研究了...
2018-08-06 16:22:31
22727
2
原创 为什么PCA中奇异值分解(SVD)和特征分解可以降低数据维度?
本文特征分解的思想与奇异值分解类似,以奇异值分解为例。网上有很多文章都说明了SVD的原理,最终说选取奇异值最大的k个就可以了(没说原因),并给出了这样一个公式:、、分别表示A矩阵的左奇异矩阵,奇异值对角矩阵和右奇异矩阵。笔者读到这里的时候想到,为什么这样是可行的?为什么选取前几个奇异值很大的矩阵就可以了?事实上,的格式是这样的:(对于大多数数据集而言,m>n即样本数量大于特征...
2018-07-25 23:43:44
1943
原创 极大似然原理
极大似然原理:假设从一个篮子里摸球,已知篮子里黑球与白球的比例是3:1或1:3,摸了5次得到的结果分别是黑、黑、白、黑、黑。问黑球所占的比例是多少?如果我们什么都没学,按照常识,看起来黑球的比例应当为3/4,白球的比例为1/4,因为从结果来看黑球出现的概率比白球高。这个“看起来”就是所谓的极大似然原理。我们可以计算一下假设黑球的比例为3/4,那么摸了5次后,得到上述结果的概率为...
2018-07-19 21:29:25
1029
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人