学习
绿箭薄荷
这个作者很懒,什么都没留下…
展开
-
在vscode中运行jupyter时报错
问题解决原创 2022-11-25 20:37:33 · 1424 阅读 · 0 评论 -
A Multi-task Learning Framework for Opinion Triplet Extraction (EMNLP 2020)阅读记录
阅读记录原创 2022-09-24 19:01:21 · 337 阅读 · 0 评论 -
python 提示ModuleNotFoundError:找不到自己的定义的模块文件
错误排查原创 2022-09-15 13:56:19 · 551 阅读 · 0 评论 -
使用Vscode远程连接服务器进行调试
vscode远程连接调试原创 2022-09-11 16:30:54 · 1045 阅读 · 0 评论 -
A Robustly Optimized BMRC for Aspect Sentiment Triplet Extraction阅读笔记
ASTE论文阅读原创 2022-09-07 10:59:23 · 467 阅读 · 0 评论 -
Neural Machine Reading Comprehension: Methods and Trends阅读(19年论文)
关键信息摘要(1)典型的 MRC 任务:它们的定义、差异和代表性数据集;(2)神经 MRC 的一般架构:主要模块和流行方法(3) 新趋势:神经 MRC 的一些新兴领域以及相应的挑战。 遗留的未解决问题,设想未来可能会发生什么介绍机器阅读理解 (MRC) 是一项测试机器理解自然语言程度的任务。可以通过要求机器根据给定的上下文回答问题来理解自然语言,这有可能彻底改变人类和机器交互的方式,带有MRC技术的搜索引擎可以直接使用自然语言将正确的答案返回,而不是一系列相关网页的用户提出的问题。此外,配备了M原创 2022-05-05 20:07:07 · 221 阅读 · 0 评论 -
torch.cumsum(),torch.sum()
dtype声明为torch.long则数据类型为int 64torch.tensor 默认为torch.FloatTensor是32位浮点类型数据原创 2022-01-10 16:15:41 · 1228 阅读 · 0 评论 -
tensor.detach(),item(),cpu(),tolist(),numpy()
cuda上面的变量类型只能是tensor,不能是其他1.detach()Returns a new Tensor, detached from the current graph. The result will never require gradient.返回一个新的Variable,从当前计算图中分离下来的,但是仍指向原变量的存放位置,不同之处只是requires_grad为false,得到的这个Variable永远不需要计算其梯度,不具有grad。当我们再训练网络的时候可能希望保持一部分原创 2022-01-06 21:17:36 · 4808 阅读 · 0 评论 -
pytorch——TensorDataset,DataLoader
from torch.utils.data import TensorDataset, DataLoadertrain_data = TensorDataset(all_input_ids, all_input_mask, all_segment_ids, all_start_positions, all_end_positions, all_example_index)train_dataloader = DataLoader(train_data, sampler=train_sampler, b原创 2022-01-04 20:13:03 · 1249 阅读 · 0 评论 -
Bert预训练模型
之前的:基于特征(feature-based)ELMO 预训练的表示作为附加特征基于微调( fine-tuning)GPTBERT(Bidirectional Encoder Representation from Transformers)2018年提出基于深层transformer的预训练语言模型。利用无标注文本挖掘语义信息BERT_BASE (L=12, H=768, A=12, Total Param-eters=110M) and BERT_LARGE (L=24, H=1024,A原创 2022-01-04 19:35:07 · 1952 阅读 · 0 评论 -
Python内置函数getattr(),hasattr(),enumerate()
1.getattr() 函数用于返回一个对象属性值>>>class A(object):... bar = 1... >>> a = A()>>> getattr(a, 'bar') # 获取属性 bar 值1>>> getattr(a, 'bar2') # 属性 bar2 不存在,触发异常Traceback (most recent call last): File "<.原创 2022-01-01 21:35:29 · 521 阅读 · 0 评论 -
nn.LSTM()关键参数,torch.squeeze()和torch.unsqueeze()
初始化config是配置文件self.lstm=nn.LSTM(config.hidden_size,config.rnn_hidden_size,config.num_layers,batch_first=True,dropout=config.dropout,bias=True,bidirectional=True)参数input_size :输入数据的形状hidden_size:LSTM网络每层节点的LSTM节点数量num_layer:LSTM网络的网络层数bias:LSTM是否包含b原创 2021-12-26 15:53:38 · 1102 阅读 · 0 评论 -
刚开始使用anaconda命令的集合
anaconda命令1.首先需要下载好anaconda网上很多教程2.windows +R ,输入cmd进入终端3.接下来创建一个虚拟环境1.创建虚拟环境的命令 conda create -n 自己的环境名字(英文) python=3.6 (python版本根据需要下载)比如,我要建一个pytorch环境,则可以:conda create -n torch python=3.6这时就创建好了一个虚拟环境2.查看自己有几个虚拟环境conda env list或者,直接到anacond原创 2021-12-17 17:36:09 · 1124 阅读 · 0 评论 -
查看自己的网络结构
查看网络BertForJointSpanExtractAndClassification( (bert): BertModel( (embeddings): BertEmbeddings( (word_embeddings): Embedding(30522, 768, padding_idx=0) (position_embeddings): Embedding(512, 768) (token_type_embeddings): Embedding(2,原创 2021-12-05 21:13:52 · 1809 阅读 · 0 评论 -
SpanBERT论文阅读记录
原文链接https://aclanthology.org/2020.tacl-1.5/1. 摘要spanBERT extends BERT by(1) masking contiguousrandom spans, rather than random tokensmask连续随机跨度,不是随机tokens(2) training the span boundary represen-tations to predict the entire content of themasked s原创 2021-11-04 16:15:42 · 278 阅读 · 0 评论 -
Softmax和LogSoftmax(使用过程中的记录)
Softmax函数常用的用法是指定参数dim(1)dim=0:对每一列的所有元素进行softmax运算,并使得每一列所有元素和为1。(2)dim=1:对每一行的所有元素进行softmax运算,并使得每一行所有元素和为1。LogSoftmax 对softmax的结果进行log,即Log(Softmax(x))...原创 2021-11-03 09:21:01 · 5307 阅读 · 0 评论 -
tmux一些命令
查看机器上GPU情况命令: nvidia-smi功能:显示机器上gpu的情况命令: nvidia-smi -l功能:定时更新显示机器上gpu的情况原创 2021-10-31 16:49:59 · 440 阅读 · 0 评论 -
BIO数据一个字一行,变成成一句话一行
path = 'data/test.txt' #文本存放的路径with open(path,encoding='utf-8') as file: lines = file.readlines() # 读取每一行a = ''#空字符(中间不加空格)with open('data/test_re.txt', 'w', encoding='utf-8') as p: for line in lines: a = line.strip() # strip()是去掉每行原创 2021-10-28 21:40:14 · 143 阅读 · 0 评论