- 博客(10)
- 收藏
- 关注
原创 sklearn DecisionTree tree_
Sklearn API -Understanding the decision tree structureArray-based representation of a binary decision tree.The binary tree is represented as a number of parallel arrays. The i-thelement of each...
2020-04-22 14:39:22 384
原创 sklearn LinearReggression
sklearn linear_model:线性模块一、LinearReggression1、调用方法class sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=None)参数含义fit_intercept(bool, defa...
2020-03-24 12:21:24 456
原创 centos端口
centos 防火墙开启 默认只开放22端口假设port = 8888查询指定端口是否开放:sudo firewall-cmd --query-port=8888/tcp开启指定端口: sudo firewall-cmd --zone=public --add-port=8888/tcp --permanent重新加载:sudo firewall-cmd --reload...
2020-03-24 10:13:55 305
原创 Sklearn 数据预处理与特征工程 preprocessing&impute
数据预处理:目的是为了提高数据质量,使数据挖掘的过程更加有效,更加容易,同时也提高挖掘结果的质量。数据预处理的对象主要是清理其中的噪声数据、空缺数据和不一致数据。特征工程:降低计算成本、提升模型上限模块 preprocessiong: 几乎包含了所有预处理的所有内容模块 Impute:填补缺失值专用目录:1、无量纲化 线性:中心化处理、缩放处理中心化处理:中心化...
2020-03-23 22:51:58 364
原创 服务器算力测试
文本分类的项目,有个需求是测服务器算力,最终填写表格如下:需要测试的是一秒能跑多少词,多少条文本,以及每个词和文本占用的内存和显存。测试方式:去除模型加载等不需要的时间,采取逐步加数据量的方式,通过差值计算。一、测试运行时间from time import time start = time() for i in range(10): print("你要测试的代码段") ...
2019-09-27 15:32:55 6758
原创 《A Deep Reinforced Sequence-to-Set Model for Multi-Label Text Classification》泛读 (2019 ACL)
Brief description基于对模型SGM(Seq2Seq)的改进。[发表于COLING2018]在SGM的基础上加了一个Set decoder,利用set的无序性,降低错误的标签排序带来的影响。(对于作者在Sequence decoder上叠加一个Set decoder的做法,并不是特别理解其必要性)SGM存在的问题:当所要预测的标签序列长度增加时,F1值下降,HL上升,...
2019-07-13 14:08:18 1488 1
原创 《Learning Structured Representation for Text Classification via Reinforcement Learning》阅读笔记
AbstractIntroductionMethodologyExamples一、Abstract Unlike most existing representation models that either use no structure or rely on pre-specified structures, we propose a reinforcement learn...
2019-07-05 16:06:36 905
原创 Pytorch 单机多GPU运行
一、单机单GPU1、set current device (gpu id)# the first methordCUDA_VISIBLE_DEVICES=gpi_id python XXX.py# the second methordtorch.cuda.set_device(gpu_id)2、put the object(tensor,variable,model…) to G...
2019-05-23 22:35:56 2448
转载 Seq2Seq Attention模型
首先强调一下图文来源,真正的完全图解Seq2Seq Attention模型。本人目前用到此模型,发现该知乎作者的文章写得通俗易懂,于是整理作为自己的笔记。如果小伙伴对模型中各种隐层状态感到不解,请看我之前的一篇博文,RNN、LSTM神经网络输入输出究竟是怎样的?Startseq2seq 是一个Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列, Encoder ...
2019-04-09 20:26:54 446
转载 RNN、LSTM神经网络输入输出究竟是怎样的?
原本以为自己懂的,可是看着看着论文,就越来越不知道Recurrent NNs(这里不区分LSTM,GRU)的输入输出到底是怎么样的。所以,查阅多篇资料,整合如下,希望能帮到大家。首先,用「动图」和「举例子」讲讲 RNN(里面的动图非常容易让大家理解每个timestep如何喂数据的)其次,以一个操做实例来具体讲一下Recurrent NNs的工作流程:答案来源于知乎作者Scofields...
2019-04-09 16:46:43 11898 6
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人