自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(89)
  • 收藏
  • 关注

原创 Python使用笔记(继承、超类等)

超类方法super(type[, object-or-type]):返回一个代理对象,并委派调用方法给父类或者type的兄弟类。__mro__属性列出getattr()和super()的方法解析搜索顺序。若忽略第二个参数,则返回一个未绑定的super对象若第二个参数是一个object,必须保证isinstance(obj, type)为真若第二个参数是一个type,必须保证issubclass(type2, type)为真,多用于classmethodsobject指实例化的对象,如self

2021-01-09 21:37:05 21

翻译 FLAT:使用Transformer引入词汇信息增强中文NER(Chinese NER Using Flat-Lattice Transformer)

文章目录1 引言2 背景3 模型3.1 转换格子为扁平结构3.2 范围的相对位置编码4 实验4.1 实验设置4.2 整体性能4.3 全连接结构的优势4.4 FLAT效率4.5 FLAT的提升4.6 BERT兼容性【论文链接】:FLAT: Chinese NER Using Flat-Lattice Transformer近年来,已证明引入词汇信息的字词格子结构能够有效提升中文NER任务,然而,格子结构复杂、多变,多数现有的基于格子结构的模型难以利用多GPU并行计算,并且推理速度较慢。本文提出FLAT

2021-01-06 02:20:57 182

原创 图卷积神经网络(GCN)论文笔记与Geometric源码解释

1 引言主要解决问题图半监督分类问题(如引用网络)。一般解决方案及缺点使用确定形式的基于图的正则化平滑标签信息,如在损失函数中使用一个拉普拉斯项:L=L0+λLreg , with Lreg =∑i,jAij∥f(Xi)−f(Xj)∥2=f(X)⊤Δf(X),(1)\mathcal{L}=\mathcal{L}_{0}+\lambda \mathcal{L}_{\text {reg }}, \quad \text { with } \quad \mathc

2020-12-14 15:18:58 182

翻译 GNNs综述:图神经网络的综合调查(A Comprehensive Survey on Graph Neural Networks)

文章目录I. 引言II. 背景和定义A. 背景最近一些年,深度学习彻底改变了许多机器学习任务,从图像分类、视频处理到语音识别、自然语音理解,这些任务中的数据通常可在欧式空间中表示。然而,有越来越多应用的数据是从非欧式空间中生成,并以物体之间具有复杂关系和依赖的图表示。图数据的复杂性给现有机器学习算法施加了重大挑战。最近,涌现很多扩展机器学习方法处理图数据的研究。在这份调查中,我们提供了图神经网络(graph neural networks,GNNs)在数据挖掘和机器学习领域的综述。我们提出一种分类,将

2020-12-11 02:51:51 441

原创 TableBank: 表格检测和识别基准数据集(A Benchmark Dataset for Table Detection and Recognition)

TableBank表格检测表格识别

2020-12-07 18:29:30 248

原创 AxCell: 从机器学习论文中自动抽取结果(Automatic Extraction of Results from Machine Learning Papers)

随着论文数量爆炸式增长,追踪机器学习领域的进展变得日益繁重。本文提出一种从论文中抽取研究成果的自动机器学习流水线 - AXCELL。AXCELL使用一些新的组件,其中包括表格分割子任务:学习相关结构知识以帮助抽取。与现有方法相比,我们的方法显著地提高了“结果抽取”的SOTA。我们还发布了一个结构化、标注的数据集,用于“结果抽取”的训练,以及一个用于评估该任务模型性能的验证集。最后,我们展示了我们的方法在产品中以半自动抽取研究成果的可行性,结果表明我们的改进使得该任务第一次可行。代码可从GitHub中获取

2020-12-06 02:15:42 158

原创 Facebook ConvS2S:Convolutional Sequence to Sequence Learning

文章目录介绍RNN Seq2Seq卷积架构位置嵌入(Position Embeddings)卷积块结构(Convolutional Block Structure)多步注意力(Multi-step Attention)标注化策略(Normalization Strategy)[Reference]1. Convolutional Sequence to Sequence Learning介绍卷积很少用于序列建模。卷积建模固定大小/窗口的上下文表示,而深层卷积网络可以很容易建模较长的有效上下文表示。

2020-11-21 21:25:58 75

原创 PGN: 指针生成网络(Get To The Point: Summarization with Pointer-Generator Networks)

seq2seq模型可用于文本摘要(并非简单地选择、重排原始文本的段落),然后这些模型有两个缺点:不易关注真实细节,以及倾向于生成重复文本。本文提出一种新颖的架构:使用两种方式增强标准的seq2seq注意力模型。第一,使用混合指针生成网络,利用指针从原文精确地复制单词,同时保留生成器产生新单词的能力。第二,使用覆盖机制跟踪哪些单词已经被摘取,避免生成重复文本。引言文本摘要任务旨在输出仅包含原文主要信息的压缩文本,大致具有两种方法:抽取式和摘要式。抽取式方法直接抽取段落原文,而摘要式方法可能生成一些原文中

2020-10-20 20:55:46 180

原创 GELU激活函数: 高斯误差线性单元

文章目录引言GELU公式GELU实验【Reference】1. GAUSSIAN ERROR LINEAR UNITS (GELUS)引言早期网络使用二元阈值单元,sigmoid激活函数将二元阈值决策平滑,使得神经元可解释为发射率,并得以通过BP算法训练。随着网络深度增加,在训练神经网络时,sigmoid激活函数已被证实不如一些非平滑的非线性激活函数高效,如ReLU通常比sigmoid训练更快、收敛更快,ELUs允许ReLU输出负值,通常能够进一步加快训练速度。深度非线性网络可以很好地拟合数据,

2020-09-07 00:44:45 312 2

原创 Xavier Glorot参数初始化: 理解训练Deep DNN的难点

许多实验表明,深层网络比浅层网络更有优势,但在2006年以前,深层网络难以训练,后来一些算法通过改进初始化方法或训练机制,成功深层网络。这里,我们的目标是更好理解,为何使用标准随机梯度下降难以优化参数随机初始化的深层网络?为何最近的一些算法能够训练深层网络?我们发现,由于sigmoid激活函数均值影响,它会将顶层隐藏层推向饱和(非线性单元饱和较少时往往更有益),因此不适合作为参数随机初始化网络的激活函数。惊奇的是,有时饱和单元能够在训练时自行缓慢地离开饱和区,并解释有时训练神经网络会看到训练停滞的原因。

2020-09-06 18:06:12 833

原创 ALBERT: 自监督语言表示的轻量级BERT

文章目录引言词向量因式分解(Factorized embedding parameterization)跨层参数共享(Cross-layer parameter sharing)内部句子一致性损失(Inter-sentence coherence loss)【Reference】引言预训练模型使得一些缺乏训练数据的下游任务表现良好,大力出奇迹,大型网络是获得SOTA性能的关键,但随着模型大小的增加,内存占用和训练时间都会增加。那么是否有比大型模型更简单、性能更好的模型?ALBERT使用两种缩减参数

2020-08-22 17:14:29 1033

原创 NTT Masque: 多风格生成式阅读理解(Multi-Style Generative Reading Comprehension)

RC研究领域多使用范围抽取式方法,生成式方法面临开放领域训练数据匮乏。本文提出多风格问答阅读理解摘要模型,从问句和多个段落生成指定风格的summary作为答案。多源摘要: 使用指针生成器机制从问句、多段落中生成多样化风格的答案,并扩展至Transformer,允许生不成器词表,或从问句、段落原文中复制信息生成答案;多风格学习: 控制答案输出样式,满足RC所有形式输出,引入风格化的人工token扩展指针生成器为条件解码器,给定风格下,每一步解码控制三个分布占解码输出的权重;问题形式化给定含JJJ个

2020-08-21 16:39:10 224

原创 微软R-NET: 端到端、抽取式机器阅读理解问答模型

文章目录R-NET结构问句和段落编码Reference:1. R-NET: Machine Reading Comprehension with Self-Matching NetworksR-NET是端到端阅读理解QA神经网络模型,目的是从段落中抽取问句对应的答案区间。使用门控注意力RNNs,编码具有问句感知的段落词向量表示,通过自匹配注意力改善段落词向量表示。R-NET结构R-Net 共分为四部分:问句和段落编码(Question and Passage Encoder)、门控注意力循环网

2020-08-20 01:03:26 282

原创 XLNet: 通用自回归预训练语言理解(Generalized Autoregressive Pretraining for Language Understanding)

文章目录引言提出的方法背景引言AR模型以前向或后向的方式建模语言模型p(x)=∏t=1Tp(xt∣x<t)orp(x)=∏t=T1p(xt∣x>t)p(\bm x)=\prod\nolimits_{t=1}^Tp(x_{t}|\bm x_{<t})\quad or\quad p(\bm x)=\prod\nolimits_{t=T}^1p(x_{t}|\bm x_{>t})p(x)=∏t=1T​p(xt​∣x<t​)orp(x)=∏t=T1​p(xt​∣x>t

2020-08-11 23:18:51 147

原创 Transformer-XL: 非固定长度上下文的注意力语言模型(Attentive Language Models Beyond a Fixed-Length Context)

Transformers可潜在地学习长期依赖关系,但受到固定上下文的限制,当待处理的文本长度超过固定长度时:训练阶段,需将输入文本分割成不同分段,不同分段独立训练,由于分段未考虑语义边界,可能造成模型缺乏上下文信息预测分段中的前几个字符,产生上下文碎片问题;预测阶段,每次移动一个输入单元,引入大量重复计算,预测效率低;Transformer-XL基于 循环分段机制 和 相对位置编码,克服vanilla Transformers的固定上下文长度的缺陷,并能够解决分段造成的上下文碎片问题。Transf

2020-08-10 14:53:43 124

原创 向量和矩阵求导(运用迹性质求导)

文章目录矩阵对标量求导标量对矩阵求导向量对向量求导(雅可比矩阵)向量求导的链式法则矩阵迹实值函数对向量求导参考资料1. 机器学习中的矩阵、向量求导矩阵对标量求导求导结果与函数(矩阵)同型,即导数结果的每个元素就是矩阵相应分量对标量的求导。若函数矩阵f\boldsymbol ff是一个m×nm\times nm×n维矩阵,则求导结果也是一个m×nm\times nm×n维矩阵,其中(∂f∂x)ij=∂fij∂x\left(\frac{\partial\boldsymbol f}{\partia

2020-08-02 18:05:32 145

原创 最大熵模型(ME)和最大熵马尔可夫模型(MEMM)
原力计划

文章目录最大熵模型(Maximum Entropy Model, MEM)最大熵思想最大熵模型表示最大熵模型学习最大熵模型求解过程举例最大熵模型与极大似然估计最大熵模型与逻辑回归模型学习之改进的迭代尺度法(Improved Iterative Scaling,IIS)ME总结最大熵马尔可夫模型(Maximum Entropy Markov Model, MEMM)MEMM标注偏置问题最大熵模型(Maximum Entropy Model, MEM)最大熵思想无更多信息的情况下,最随机的推断(概率分布

2020-07-12 15:25:00 158

原创 隐马尔可夫模型(HMM模型学习、概率计算、解码)
原力计划

文章目录通信模型马尔可夫假设和马尔可夫过程隐马尔可夫模型和通信模型HMM模型表示HMM概率计算前向递推公式后向递推公式前后向算法之间的关系一些概率计算公式HMM模型学习监督学习方法期望最大化算法HMM预测/解码贪心近似算法维特比算法HMM局限通信模型发送者(人或机器)发送信息时,需通过媒介(空气或电线)传播信号,此过程为广义上的编码。接收者根据规则将信号还原成发送者发送的信息,此过程为广义上的解码.语音识别是接收方根据接收信号还原发送方的信息的过程,如何通过观测信号o1,o2,⋯o_1,o_2,\c

2020-07-11 08:57:27 454

原创 详解Lucene全文检索基础架构
原力计划

文章目录数据查询方法什么是LuceneLucene全文检索流程索引流程搜索流程Lucene演示索引过程索引演示搜索过程Field域类型索引维护分析器(Analyzer)Lucene原生分析器第三方中文分词器Lucene高级搜索Lucene底层储存结构(高级)词典的构建跳跃表原理FST原理Lucene优化(高级)解决大量磁盘IO选择合适的分词器选择合适的位置存放索引库本文是bilibili-《超系统学习Lucene全文检索技术》的学习笔记。数据查询方法顺序扫描法数据表中查询包含某个字符串的文档,逐行

2020-07-09 20:45:02 145

原创 红黑树、B树和B+树
原力计划

红黑树(Red Black Tree,RBT)红黑树是一种自平衡二叉搜索树,通过在插入和删除时调整二叉树结构,保持二叉树深度平衡,提高查找效率。红黑树的五点特性:每个节点的颜色是黑色或者红色;根节点为黑色;叶节点(NULL)是黑节点,实际不存在;红节点的子节点是黑节点;从一个节点到叶节点的路径上包含相同数目的黑节点,黑色平衡树;特性5保证红黑树从根节点到叶节点的最长路径不大于最短路径的两倍,保证黑色平衡的特性。由于这一约束的存在,将插入节点的颜色标记为红色,能够尽可能避免自平衡,插入黑色

2020-07-09 00:44:00 214

原创 纯Numpy实现K-Means聚类

Python代码,包含距离计算、簇中心更新和可视化import matplotlib.pyplot as pltimport numpy as npimport randomdef distance(x, y): """欧式距离 input: x: shape=(n_samples, n_features) y: shape=(k, n_features) output: z: shape=(n_smaples, k)

2020-07-08 18:19:45 150

原创 【论文解读】VAE: Auto-Encoding Variational Bayes(变分自编码器)
原力计划

基于潜变量的生成模型模型联合概率分布可表示为pθ(x,z)=pθ(x∣z)pθ(z)p_{\theta}(x,z)=p_\theta(x|z)p_\theta(z)pθ​(x,z)=pθ​(x∣z)pθ​(z),模型的生成过程为z∼pθ(z)  ⟹  x∼pθ(x∣z)z\sim p_\theta(z) \implies x\sim p_\theta(x|z)z∼pθ​(z)⟹x∼pθ​(x∣z)考虑一个独立同分布数据集X={x(i)}i=1NX=\{x^{(i)}\}_{i=1}^NX={

2020-06-29 16:17:03 204

原创 生成对抗网络(Generative Adversarial Nets, GANs)
原力计划

GANs生成器generator和判别器discriminator均使用多层感知机。定义输入噪声先验分布pz(z)p_z(z)pz​(z),生成器Gz(z;θg)G_z(z;\theta_g)Gz​(z;θg​)将其映射至真实数据分布。判别器D(x;θd)D(x;\theta_d)D(x;θd​)输出标量,表示数据来自于真实分布的概率。训练判别器,使之尽可能区分输入来自于真实样本还是生成器生成样本;训练生成器,尽可能使判别器对其输出认为是来自于真实样本。因此,生成器和判别器互相对抗,优化判别器降

2020-06-24 00:43:59 61

原创 【论文解读】Deep Biaffine Attention for Neural Dependency Parsing(基于深层双仿射注意力的神经网络依存解析)
原力计划

文章目录代码实现:github参考文献:https://www.hankcs.com/nlp/parsing/deep-biaffine-attention-for-neural-dependency-parsing.html

2020-06-22 09:26:11 1164 2

原创 【论文解读】A Fast and Accurate Dependency Parser using Neural Networks(基于神经网络的高性能依存句法解析器)
原力计划

文章目录Transition-based Dependency ParsingNeural Network Based Parser模型输入隐藏激活函数输出层模型训练Reference代码实现:基于tensorflow 2.2实现,代码见github。Transition-based Dependency Parsing从初始状态开始,每步贪婪预测下一步的动作(多分类取分数/概率最高的类别),如转移、生成左弧或右弧,直到所有单词的预测完毕(stack仅含根节点,buffer为空)。基于贪婪的预测结

2020-06-19 16:38:09 201

原创 Attention机制(Bahdanau attention & Luong Attention)
原力计划

传统seq2seq模型中encoder将输入序列编码成一个context向量,decoder将context向量作为初始隐状态,生成目标序列。随着输入序列长度的增加,编码器难以将所有输入信息编码为单一context向量,编码信息缺失,难以完成高质量的解码。注意力机制是在每个时刻解码时,基于当前时刻解码器的隐状态、输入或输出等信息,计算其对输入序列各位置隐状态的注意力(分数)并加权生成context向量用于当前时刻解码。引入注意力机制,使得不同时刻的解码能够关注不同位置的输入信息,提高预测准确性。

2020-06-13 16:52:14 729

原创 关系抽取之分段卷积神经网络(PCNN)
原力计划

远程监督关系抽取Piecewise Convolutional Neural Networks (PCNNs) with Multi-instance Learning远程监督关系抽取的难题之一是训练集问题,一般使用远程监督解决,即假设若知识库中两个实体具有某种关系,则任何包含这两个实体的句子都具有这种关系。下图为使用远程监督自动标注数据的实例,其中第一句标注正确,而第二句标注错误。远程监督是快速获取关系抽取训练集的有效方法,但其有两个缺点:远程监督假设过于强烈,易标注错误,引入噪声数据;

2020-06-08 00:29:59 1109 1

原创 Tensorflow 2.x:Dataset的repeat、shuffle和batch操作

Shuffleshuffle( buffer_size, seed=None, reshuffle_each_iteration=None)This dataset fills a buffer with buffer_size elements, then randomly samples elements from this buffer, replacing the selected elements with new elements. For perfect shuffling,

2020-05-25 20:18:55 579

原创 Tensorflow2.x:使用RNNs预测温度时间序列(时间序列数据转为tf输入流)
原力计划

本文使用RNNs预测气温,数据集使用weather time series dataset,该数据集包含14中不同特征,如气温、气压、湿度等,数据的统计间隔为10分钟,共包含2009年至2016年共计约42w数据。根据输入特征数、输出序列长度不同,本文使用三种实现:Simple LSTM Model: 单一特征(温度)预测未来单一时刻的温度;多特征(温度、湿度和气压)预测未来单一时刻的温度多特征(温度、湿度和气压)预测未来多个时刻的温度;本文为Tensorflow官方指南学习笔记,自己整理的完

2020-05-20 19:49:27 752

原创 Tensorflow2.x:类别不平衡数据的处理(bias偏置、类别加权、过采样、评价曲线)
原力计划

二分类训练集正例数pos为492,负例数neg为28431,将所有样本预测为负例,正确率为99.83%。初始bias偏置输出层神经元数为1,使用逻辑回归输出类别似然概率,即p(y=1∣x)=11+e−(w⋅x+b)p(y=1|\boldsymbol x)=\frac{1}{1+e^{-(\boldsymbol w\cdot\boldsymbol x+b)}}p(y=1∣x)=1+e−(w⋅x+b)1​假设初始w⋅x\boldsymbol w\cdot \boldsymbol xw⋅x接近于0,则

2020-05-20 00:12:11 1052

原创 Tensorflow2.x:利用tf.data.Dataset API读取CSV文件/DataFrame对象作为Keras输入流
原力计划

使用tensorflow.data.Dataset API的处理CSV文件,作为keras输入流

2020-05-19 00:02:37 836

原创 层标准化详解(Layer Normalization)

层标准化可以很有效地稳定动态神经网络的隐藏状态。训练和测试处理方式一致;为什么Batch Normaization难以应用于RNNs?Batch Normalization使用mini-batch的均值和标准差对深度神经网络的隐藏层输入附加标准化操作,可有效地提升训练速度。对于前向神经网络应用Batch Norm,使用简单SGD优化器,训练速度也能有较大提升。BN的效果受制于batch的大小,小batch未必能取得预期效果;对于前向神经网络可以很直接地应用BN,因为其每一层具有固定的神经

2020-05-17 19:18:57 2997 2

原创 批标准化详解(Batch Normalization for Reducing Internal Covariate Shift)
原力计划

文章目录为什么要使用BN?怎样使用BN?如何有效地实现BN?如何训练和推理使用BN的网络?BN作用在神经元的输入侧还是输出侧?为什么BN网络可以使用更高的学习率?为什么BN网络自带正则化效果?Reference深度神经网络训练过程中,各网络层参数在不断变化,每层网络的输入分布不断变化 ,不同的输入分布可能需重新训练,此外,我们也不得不使用 较小的参数初始化、较小的学习率 训练模型,避免网络输出陷入饱和区,造成BP算法的梯度消失,深度模型一般难以训练。作者称这种内部网络层输入分布变化的现象为“Intern

2020-05-17 13:29:04 304

原创 极端提升树XGBoost及其实践
原力计划

第t次迭代基模型(CART决策树)ft(x)=arg⁡min⁡f∑iℓ(yi,Ft−1(xi)+f(xi))+Ω(f)+constant,Ω(f)=γT+12λ∑jwj2f_t(\pmb x) = \arg\min_f\sum_i\ell(y_i,F_{t-1}(\pmb x_i)+f(\pmb x_i))+\Omega(f)+constant,\quad \Omega(f)=\gamma T...

2020-05-11 00:33:54 94

原创 【论文解读】BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
原力计划

前言BERT: Bidirectional Encoder Representations from Transformers.通过预训练的语言模型可有效地提升多数下游任务,处理下游任务(迁移学习)的方法大致分为两种:feature-based,such as ELMo,uses task-specific architectures that include the pre-trai...

2020-05-08 01:54:01 274

原创 回归和分类损失函数(MSE、MAE、Huber、Exponential、Deviance、Hinge)
原力计划

指数损失和二项偏差损失给定样本x\boldsymbol xx,类别y∈{−1,+1}y\in\{-1,+1\}y∈{−1,+1},类别另一种表示y′=(y+1)/2∈{0,1}y'=(y+1)/2\in\{0,1\}y′=(y+1)/2∈{0,1}.二项偏差(Binomial Deviance)的类1概率为p(x)=P(y=1∣x)=exp⁡(f(x))exp⁡(−f(x))+exp⁡(f(...

2020-05-06 01:48:20 864

原创 梯度提升决策树GBDT及其sklearn实践
原力计划

GBDT原理推导、分类和回归实例、skearn

2020-05-05 23:34:34 234

原创 AdaBoost与指数损失

自适应增强(Adaptive Boosting,AdaBoost)是Boosting算法簇的先祖,通过集成多个弱模型成为一个强模型。H(x;Θ)=∑τατh(x;θτ)H(\pmb x;\Theta)=\sum_{\tau}\alpha_{\tau}h(\pmb x;\theta_{\tau})H(xxx;Θ)=τ∑​ατ​h(xxx;θτ​)式中hτh_\tauhτ​和ατ\alpha_...

2020-05-05 20:11:58 372

原创 Win10环境下安装GPU版本Tensorflow
原力计划

文章目录配置成功的环境Win10 x64 + GTX 960MCUDA v10.0cuDNN v7.6.5Anacoda 3 + python3.7虚拟环境tensorflow-gpu==1.14Tips配置成功的环境Win10 x64 + GTX 960M + CUDA v10.0 + cuDNN v7.6.5 + Anancoda 3 (env python3.7) + tensorfl...

2020-05-01 02:57:23 315

原创 自然语言处理:序列标注(BiLSTM-CRF)
原力计划

文章目录Tagging SchemeBidirectional LSTM NetworksWhy use the CRF Networks?CRF NetworksBiLSTM-CRF networksEmission scoreTransition scoreDecodingLoss functionBi-LSTM-CRF NetworksReference:1. Bidirectional...

2020-04-30 21:33:47 422

空空如也

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除