- 博客(34)
- 资源 (6)
- 收藏
- 关注
原创 PyAlink踩坑
![在这里插入图片描述](https://img-blog.csdnimg.cn/20191209173你先pip3 install --upgrade setuptools,然后在用easy_install-3.6 ***.egg试一下125881.png)用easy_install-3.6。。你这个应该有多版本...
2019-12-09 17:32:43 692
原创 ALBERT是如何做到又快又好的
ALBERT: A LITE BERT FOR SELF-SUPERVISEDLEARNING OF LANGUAGE REPRESENTATIONSMIXED PRECISION TRAININGhttps://github.com/NVIDIA/DeepLearningExamples/tree/master/TensorFlow/LanguageModeling/BERT)
2019-10-17 16:32:19 335
原创 再谈encoder-decoder框架下的alignment based 与attention based
Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling
2019-10-17 16:16:31 560
原创 zero-shot learning用于拒识数据的处理
A Model of Zero-Shot Learning of Spoken Language Understanding
2019-10-16 14:48:09 189
原创 encoder-decoder框架和普通框架的区别在哪里?
A Bi-model based RNN Semantic Frame Parsing Model for Intent Detection and Slot Filling
2019-10-16 10:32:38 2169
原创 第三届魔镜杯 问答数据
链接:https://pan.baidu.com/s/1PXUZmbz93nRQxnttZXzuOw提取码:x2i0语义相似性,semantic similarity
2019-09-27 16:35:48 670
原创 Ran 2 tests in 0.007s OK (skipped=1) An exception has occurred, use %tb to see the full traceback.
tensorflow单元测试,报以上错误。解决方案:tensorflow版本问题。在1.11.0下就不报;在1.13.0下就报错。猜测是tf实现ut的时候可能有啥trick,之前会多报一个ut,后来把这个多报的ut弄成了skipped。成功运行:...
2019-09-12 09:57:03 608
原创 AttributeError: 'generator' object has no attribute 'next'
在python3.x版本中,python2.x的g.next()函数已经更名为g.next(),所以只需要将g.next()换成g.next()就可以了。如果你觉得g.next()太丑,使用next(g)也能达到相同效果。...
2019-07-16 09:36:23 866
翻译 使用CuDNNSLTM TypeError: Fail to find the dnn implementation.
keras: 使用CuDNNSLTM TypeError: Fail to find the dnn implementation.再调用前加一行代码,设置gpu_options.allow_growth = Trueimport tensorflow as tffrom tensorflow import kerasconfig = tf.ConfigProto()config.gpu...
2019-07-15 16:09:50 2527 3
原创 孪生网络在FAQ中的缺点
把Question1 和Question2 都投影到一个n-dim的特征向量上,对于训练预料库中未出现过的预料,如在工单数据中出现’我是谁‘’,就会出现虚匹配过多的情况。...
2019-07-05 09:30:20 1443
原创 基于中文问答系统谈Bert的不足及改进
bert仅仅基于attention,没有考虑词性、对上下文信息也仅仅用了embedding,仅仅用语义信息,会出现错判。在训练中,融入词性、句法信息、停用词,以改善这个现象...
2019-05-11 10:28:14 3872 2
原创 Bert BERT classifier左右两列得分的含义,如何预处理行业数据
运用Bert的classifier中,遇到两个问题:1、predict左右两列的float值代表什么含义2、为什么模型把自己的所有测试数据全部判为负样本1、左列代表模型判断当前语料为正样本的概率,右列代表模型判断当前语料为负样本的概率,左右两列之和为12、Bert在训练的时候对数据并没有做shuffle操作,如果把训练数据所有正样本在前,负样本在后,训练出的模型会把所有测试样本判为负样本;...
2019-05-08 15:41:30 933 3
原创 基于bert BERT 谈问答系统的加速
Google官网给出的基于Bert的run_classify.py,将text_a和text_b的高维深度特征抽取出来(如果取-2 layers,为128*768维),然后串起来,后接一个分类层。在线测试,128G的服务器上,1000条数据比对,大概需要40s.用bert的feature_exact.py抽取高维特征,然后训练一个孪生的biRNN网络,将库中所有Q的feature事先计算好,不用...
2019-05-08 15:29:33 1772
原创 基于bert BERT 的中文问答系统谈fine-tune
fine-tun有两种形式,google官网给出的run_classifier.py示例,是利用行业数据对bert的所有参数做微调。将text_a和text_b串接,最后层做一个二分类。而另一种形式,是exact_featrue.py,保存bert特征作为输入,训练自己的较浅的神经网络模型。...
2019-05-08 15:24:20 6580 2
原创 从keras中取出中间层
背景:项目中需要计算同一句子和库中所有句子的相似性,需要事先将库中所有句子的特征抽取出来,而这个特征对应到深度学习模型的中间层方法:...
2019-03-27 09:17:01 1485
原创 深度学习中多余负样本的使用
数据背景:大量负样本,少量正样本操作:深度模型正负样本需要均衡,实验发现,正负样本在1:3的时候,acc和f1达到了最高。但是在全样本测试的时候,出现把负样本判为正样本的情况。对负样本做boost,提升了acc和f1...
2019-03-25 14:57:53 2826
原创 无监督Embedding
做无监督,关键是找到输出的标签。在NLP中,可以用win1作为输入,邻近的短语win2作为输出,来训练unsupervised deep representation参考文献:Rie Johnson and Tong Zhang. 2015b. Semi-supervisedconvolutional neural networks for text categorizationvia re...
2019-03-23 11:11:43 459
原创 为什么近年来在NLP中用CNN的越来越多
CNN 和RNN都可以保留文本的空间信息,但是CNN的并行性更好。而深度学习往往依赖于大规模的样本,此时CNN对计算力上更有优势。CNN中的pooling层,有助于capture更long的global文本信息...
2019-03-23 11:04:19 672
原创 深度学习如果数据量过少会带来什么问题
首先,回顾几个概念:过拟合:数据量过大,模型为了尽可能的拟合数据,不断委屈自己适应训练数据。此时,模型在训练数据上效果很好,在测试数据上效果很差欠拟合:模型没有完全拟合数据,比如一个随机初始化的模型。此时,模型在训练数据和测试数据上效果都很差数据量过少,不属于以上两种情况,此时模型稍加训练便可以拟合训练数据。此时模型在训练数据上表现很好,在测试数据上表现很差...
2019-03-21 15:14:05 16695 4
原创 样本数量不足时,使用迁移学习
神经网络的词语来表述,就是一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里,而不是从头开始,为每特定的个任务训练一个神经网络。这样做的好处,可以从下面的例子中体现,假设你已经有了一个可以高精确度分辨猫和狗的深度神经网络,你之后想训练一个能够分别不同品种的狗的图片模型,你需要做的不是从头训练那些用来分辨直线,锐角的神经网络的前几层,而是利用训练好的网络,提取初级特征,之后只训练最后...
2019-03-20 09:29:58 4373
原创 mae和acc
model.compile(loss=‘MSE’,optimizer=adam,metrics=[‘mae’]) metrics = acc和 mae的区别
2019-03-18 13:12:00 1440
原创 CNN网络过拟合示例
问题描述:checkpoint = ModelCheckpoint(filepath= “weights_stack.hdf5”, save_best_only=True, verbose=1, period=50) 中save_best_only 设为true后,出现Epoch 00200: val_loss did not improve from 0.00739排查过程:、将mo...
2019-03-18 10:09:19 2068
原创 加载 GoogleNews-vectors-negative300.bin 报错
gensim加载 GoogleNews-vectors-negative300.bin ,报错UnpicklingError: invalid load key, ‘3’.import gensimWord2vecmodel = KeyedVectors.load_word2vec_format(‘GoogleNews-vectors-negative300.bin’,binary=True)...
2019-03-18 09:37:39 3749 1
原创 深度学习中的激活函数和损失函数
1、激活函数演变史1)阶梯激活函数非0即1的阈值涉及使得输入的微小变化会引起输出的大幅度跳变,进而引进了较平缓的sigmoid、tanh。2)sigmoid函数输出在0~1,比较符合概率分布的特点;中央区对信号增益大,两侧对信号增益小,分别对应神经元的兴奋态和抑制态。但是sigmoid 存在梯度消失的情况,网络深的时候就训练慢,甚至不可训练,需要通过无监督的逐层训练初始化权重来解决。3)Re...
2019-03-17 12:28:28 1163
原创 Simense LSTM 算法,做中文文本相似性判断
性能:train acc: 84.00 val acc :81.47% ; predict性能依赖于训练语料
2019-03-15 11:20:51 1134 1
原创 STC2聚类算法用于中文文本推荐
斜体样式@TOC欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将...
2019-03-15 08:25:58 557
An empirical model of emphatic word detection
2017-12-26
Web Sensitive Text Filtering by Combining Semantics and Statistics
2017-12-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人