深度学习
文章平均质量分 66
小孟Tec
为什么我的眼里常含泪水?
因为我对这土地爱得深沉……
展开
-
图神经网络权威基准OGB(Open Graph Benchmark)
针对不同的图学习任务,比如节点性质、边性质、图性质的预测等,OGB都分别提供了相应的数据集,比如亚马逊产品购买网络、学者合作网络、学术引用网络、分子图等等。OGB一共包含三大类任务:节点性质预测、边性质预测、图性质预测,每种任务中又分别使用了不同的数据集,其中节点性质预测有5个数据集,边性质预测有6个数据集,图性质预测有4个数据集。因此,图神经网络在多个领域的复杂关系建模和互动系统中起到关键作用,这些领域包括生物学、地图、金融、搜索、推荐、高能物理学、社会科学和经济学等。原创 2023-01-29 14:58:12 · 543 阅读 · 1 评论 -
multi class、multi label 以及 multi task classification区别
文章目录Multiclass classificationMultilabel classificationMultioutput-multiclass classificationlabel 和 values取不同值时对应的类别如下referenceMulticlass classificationMulticlass classification means a classification task with more than two classes; e.g., classify a set原创 2021-08-08 22:06:17 · 535 阅读 · 0 评论 -
Distant Supervision 远程监督
文章目录1引言2 DS 远程监督2.1 training2.2 testing特征提取Lexical featuresSyntactic features4 结论Reference1引言传统意义上讲,关系抽取是实体识别基础上的一个任务,其核心是抽取一个句子中包含实体对之间的关系。第一步就是训练一个关系抽取器,换句话讲就是训练一个关系分类器。因为模型不可能自己给关系起名字,所以我们需要人工的标注...原创 2019-12-27 22:15:17 · 1061 阅读 · 0 评论 -
Keras分词器 Tokenizer
TokenizerTokenizer是一个将文本向量化,转换成序列的类。用来文本处理的分词、嵌入。导入改类from keras.preprocessing.text import Tokenizer默认参数如下keras.preprocessing.text.Tokenizer(num_words=None, ...原创 2019-11-07 22:15:29 · 3809 阅读 · 0 评论 -
win10 + Anaconda 安装PyTouch
为 PyTorch 创建虚拟环境1.打开 Anaconda 自带的 Anaconda Prompt:2.打开 Anaconda Prompt 之后,在命令行输入:conda create --name pytorch python=3.6注意,这里的 pytorch 是虚拟环境的名称,可随意取。由于清华tuna的 Anaconda源 5.16号被移除了。若之前配了t...转载 2019-05-18 21:48:16 · 1466 阅读 · 0 评论 -
TF-IDF原理及使用
TF-IDF(Term Frequency-Inverse Document Frequency, 词频-逆文件频率).是一种用于资讯检索与资讯探勘的常用加权技术。TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。上述引用总结就是, 一个词语在一篇...转载 2019-04-24 15:46:33 · 171 阅读 · 0 评论 -
自动微分(Automatic Differentiation)简介
现代深度学习系统中(比如MXNet, TensorFlow等)都用到了一种技术——自动微分。在此之前,机器学习社区中很少发挥这个利器,一般都是用Backpropagation进行梯度求解,然后进行SGD等进行优化更新。手动实现过backprop算法的同学应该可以体会到其中的复杂性和易错性,一个好的框架应该可以很好地将这部分难点隐藏于用户视角,而自动微分技术恰好可以优雅解决这个问题。接下来我们将一起...转载 2019-04-19 20:54:07 · 770 阅读 · 0 评论 -
批量梯度下降(BGD)、随机梯度下降(SGD)、小批量随机梯度下降(MSGD)实现过程详解
接触过神经网络的人都知道,网络的训练是其核心,本人在读书时接触的是BP神经网络,那时写的代码训练样本量不大,没有注意到题目所列出的这些训练方式,偶尔也曾看到了 “批量梯度下降”的名词,却并没有深入研究它的实现过程。样本是深度学习的主要学习来源,其样本量动则百十万个,再加上其结构和BP网络的不同,虽然在大理论上没变化,但是如果再用老一套方式去训练,其效率和结果都不会理想,这时,一些trick就显...转载 2019-01-09 16:34:43 · 5280 阅读 · 2 评论 -
端到端的深度学习 (end to end learning)
from https://www.zhihu.com/question/50454339/answer/257372299转载 2019-01-07 10:25:43 · 694 阅读 · 0 评论 -
卷积神经网络 1*1 卷积核
卷积神经网络中卷积核的作用是提取图像更高维的特征,一个卷积核代表一种特征提取方式,对应产生一个特征图,卷积核的尺寸对应感受野的大小。经典的卷积示意图如下:5*5的图像使用3*3的卷积核进行卷积,结果产生3*3(5-3+1)的特征图像。 卷积核的大小一般是(2n+1)*(2n+1)的奇数乘奇数大小(n>=1),最常用的有3*3,5*5,7*7的。之所有使用奇数*奇数而不是偶...转载 2018-10-16 00:35:11 · 303 阅读 · 0 评论