自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 flask学习

每天抽一个小时学flask。

2023-11-21 21:02:48 25 1

原创 transformers框架做文本分类compute_metrics不生效

数据集格式对上这个bug卡一天了。

2023-11-10 18:29:30 80 1

原创 paddle学习

这个paddle好奇怪不像torch那么好装。待我研究一下是啥子问题。安装paddle环境。

2023-08-09 15:00:57 114 1

原创 《Multi-labeled Relation Extraction with Attentive Capsule Network》胶囊网络关系抽取

挖个坑先

2022-05-12 17:18:51 119

原创 《Attention Guided Graph Convolutional Networks for Relation Extraction》

关系抽取里gcn的应用先挖个坑回头再看

2022-05-10 10:57:00 79

原创 《Relation Classification with Entity Type Restriction》论文

论文链接:https://arxiv.org/abs/2105.08393

2022-05-10 10:46:23 144

原创 《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文

读这篇论文主要是为了研究源码怎么将transformer模块放入自己的模型先挖个坑

2022-05-08 22:35:58 814 1

原创 《Deep Contextualized Entity Representations with Entity-aware Self-attention》论文

论文链接:https://arxiv.org/pdf/2010.01057.pdf本文以Robert为基础训练模型,任务包括通过用[MASK]实体替换实体来随机屏蔽实体,并通过预测这些屏蔽实体的原件来训练模型。input respresentation:Token embedding + Position embedding + Entity type embedding(求和操作)Entity-aware Self-attention:(entity与entity交互 entit.

2022-05-08 21:41:42 475

原创 《A Hierarchical Multi-task Approach for Learning Embeddings from Semantic Tasks》论文

论文链接:https://arxiv.org/pdf/1811.06031.pdfword embedding:用三种向量来表示,glove,eImo,CNN-feature 连接得到向量geNER:bilstm+crf(第一层encoder) 得到向量gnerEntity Mention Detection:bilstm+crf(第二层encoder) 将[ge,gner]拼接作为输入 检测实体的指代词 比如说[妈妈,她]predicate layer:编码器将[ge,gemd]的连接作为

2022-05-08 16:39:07 413

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除