人工智能
AI-CS研究生
想做的事一定可以做到,想见的人一定可以见到
展开
-
GCN与GAT之间的重要联系和区别
谈几点深入的理解1.与GCN的联系与区别无独有偶,我们可以发现本质上而言:GCN与GAT都是将邻居顶点的特征聚合到中心顶点上(一种aggregate运算),利用graph上的local stationary学习新的顶点特征表达。不同的是GCN利用了拉普拉斯矩阵,GAT利用attention系数。一定程度上而言,GAT会更强,因为 顶点特征之间的相关性被更好地融入到模型中。2...原创 2020-03-10 11:15:44 · 15302 阅读 · 2 评论 -
图卷积网络到底怎么做 —— 小试牛刀
GCN 是一类非常强大的用于图数据的神经网络架构。事实上,它非常强大,即使是随机初始化的两层 GCN 也可以生成图网络中节点的有用特征表征。下图展示了这种两层 GCN 生成的每个节点的二维表征。请注意,即使没有经过任何训练,这些二维表征也能够保存图中节点的相对邻近性。更形式化地说,图卷积网络(GCN)是一个对图数据进行操作的神经网络。给定图 G = (V, E),GCN 的输入为:...原创 2020-03-09 18:58:50 · 427 阅读 · 0 评论 -
Word2vec的详细讲解和总结
https://blog.csdn.net/HowardEmily/article/details/104724813?depth_1-utm_source=distribute.pc_feed.63661&utm_source=distribute.pc_feed.63661转载 2020-03-08 10:46:54 · 285 阅读 · 0 评论 -
tensorflow中tf.Graph()使用说明
tf.Graph()表示实例化一个用于tensorflow计算和表示用的数据流图,不负责运行计算。在代码中添加的操作和数据都是画在纸上的画,而图就是呈现这些画的纸。我们可以利用很多线程生成很多张图,但是默认图就只有一张。tf中可以定义多个计算图,不同计算图上的张量和运算是相互独立的,不会共享。计算图可以用来隔离张量和计算,同时提供了管理张量和计算的机制。1、使用g = tf...原创 2020-02-25 11:57:13 · 630 阅读 · 1 评论 -
Prim算法实现最小生成树问题(C++语言)
塔坪村A上白庙B如意村C上云村D双塘村E碑子岩F杨柳村G中白庙H胡家庙I山麻柳J求以上图的最小生成树:(采用Prim算法)输入输出采用读取文件的方式:说明: (1)第一行表示有多少个节点第二行表示各个节点的名字信息 接下来是一个10 x 10的矩阵,采用邻接矩阵的方式存储节点间的关系#include<iost...原创 2019-12-01 15:22:19 · 792 阅读 · 0 评论 -
Representation Learning for Attributed Multiplex Heterogeneous Network 论文阅读笔记
摘要部分网络嵌入(图嵌入)在真实世界中已经有了非常大规模的应用,然而现存的一些网络嵌入(图嵌入)相关的方法主要还是集中在同质网络的应用场景下,即节点和边的类型都是单一类型的情况下。但是真实世界网络中每个节点的类型都多种,每条边的类型也有多种,而且每一个节点都具有不同且繁多的属性。所以本论文提出了一种在Attributed Multiplex Heterogeneous Network中进行嵌入...原创 2019-11-21 16:57:15 · 6656 阅读 · 11 评论 -
论文:DeepWalk: Online Learning of Social Representations(社会表征的在线学习)重点讲解
相关资料:https://github.com/SkyWorkerCK/NetWork-EmbeddingDeepWalk是一种学习网络中节点的表示的新的方法,是把language modeling的方法用在了social network里面,从而可以用deep learning的方法,不仅能表示节点,还能表示出节点之间的拓扑关系,也就是表现出社会网络的社会关系。如下图所示:上图...转载 2019-07-28 15:59:52 · 485 阅读 · 0 评论 -
浅谈Seq2Seq模型
最近在阅读论文《Attention is all you need》的时候了解到了这个Seq2Seq模型,其最基本的原理及其思想就是RNN(循环神经网络的)的一个最重要的变种:N vs M,这种结构也叫Encoder-Decoder模型。原始的N vs N RNN要求序列等长,然而我们遇到的大部分问题序列都是不等长的,如机器翻译中,源语言和目标语言的句子往往并没有相同的长度。举一个很简单...原创 2019-08-01 17:34:24 · 390 阅读 · 0 评论 -
主成分分析(PCA)原理详解
本人最近一直在关注学习基于SVD(奇异值分解)的PCA(主成分分析算法)—— Principal Component Analyse我在学习的过程中查阅了 “一步一步教你学PCA” 等博客,发现讲的非常好,但是作者讲的例子太过于复杂,以下是我在参考完多个博主关于PCA的见解之后,自己基于sklearn中的鸢尾花数据集(iris.csv)进行编写的主成分分析实例,其中的代码对于初学者而言非常好理...原创 2019-07-24 17:46:23 · 1466 阅读 · 3 评论 -
MNIST手写数字识别模型精度测试
MINST数据库是由Yann提供的手写数字数据库文件,其官方下载地址http://yann.lecun.com/exdb/mnist/数据库的里的图像都是28*28大小的灰度图像,每个像素的是一个八位字节(0~255)这个数据库主要包含了60000张的训练图像和10000张的测试图像,主要是下面的四个文件其中: 训练集(包括5000的验证集): Training set...原创 2019-06-11 22:36:01 · 1624 阅读 · 0 评论 -
向量机SVM原理详解
转自:http://www.blogjava.net/zhenandaci/category/31868.html(一)SVM的简介支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。支持向量机方法是建立在统计学习理...转载 2019-05-29 17:20:26 · 440 阅读 · 0 评论 -
PythonChallenge —— 4(关卡)
此关卡因为只给了一个一张图片,没有任何提示信息,还是很难解的,不过结合之前几道图片的解题经验,我们发现很多可以从源代码中进行寻找信息,所以这次打开源代码,我们可以发现:我们发现图片是一个可以点击开的一个链接,所以我们进行点击发现是有数字进行组成的跳转页面:http://www.pythonchallenge.com/pc/def/linkedlist.php?nothing=123...原创 2019-06-01 15:33:36 · 237 阅读 · 0 评论 -
全连接神经网络和卷积神经网络的区别
在这里大致说明以一下我在学习过程中的理解: 卷积神经网络也是通过一层一层的节点组织起来的。和全连接神经网络一样,卷积神经网络中的每一个节点就是一个神经元。在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连,为了展示每一层神经元的维度,一般会将每一层卷积层的节点组织成一...原创 2019-05-28 16:51:04 · 18206 阅读 · 0 评论 -
给2020年计算机考研学弟学妹的意见
前天在官网的拟录取名单中,看到了自己的名字,排名学硕28名,有一些奖学金,不算满意,但终归心里的石头总算落下,也算给自己过去的一年的付出给一个交代,和一个阶段告一个段落吧。结束,也是新的开始!下一程,三年...... 写这篇日志的目的很简单,因为我考上并不是我一个人的功劳,在过去的一年里,我得到了很多学长学姐的帮助和指点,才在即将走偏的路途上得以回到正轨,希望我能在日志...原创 2019-05-28 16:33:12 · 2531 阅读 · 0 评论 -
神经网路(Neural Network building)—— 前向传播和反向传播
神经网络: 随着人工智能的崛起,Python渐渐开始成为编写人工智能的主要工具语言,由于Python易于编写且在整个大环境下,工具包非常丰富,所以我认为也是写神经网络的最佳语言。神经网络由输入层、隐藏层和输出层构成,隐藏层越多,说明整个神经网络越复杂,计算复杂度也越高,理所当然的计算耗时就越长。每个隐藏层上的神经元节点,也就是说每个Neural,简单地说,它的值由它的入度边的权值*...原创 2019-05-28 16:24:21 · 417 阅读 · 0 评论