文献阅读
文章平均质量分 85
九筒-
这个作者很懒,什么都没留下…
展开
-
【文献阅读】Pre-Training With Whole Word Masking for Chinese BERT
Cui Y, Che W, Liu T, et al. Pre-training with whole word masking for chinese bert[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2021, 29: 3504-3514.Abstract在本文中,我们旨在首先介绍中文 BERT 的全词掩蔽(wwm)策略,以及一系列中文预训练语言模型。然后我们还提出了一个简单但有效的模型,称为 MacB原创 2022-03-31 18:39:39 · 1659 阅读 · 0 评论 -
【文献阅读】StyleBERT: Chinese pretraining by font style information
Abstract因此在本文中,我们提出了中文预训练语言模型 StyleBERT,它结合了以下嵌入信息来增强语言模型的 savvy,例如单词、拼音、五笔和chaizi(拆字)。Introduction大规模预训练模型BERT文本分类的应用Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks, 2019.Chi Sun, Xipeng Qiu, Yige Xu原创 2022-03-23 16:05:09 · 1364 阅读 · 0 评论 -
【文献阅读】Microblog sentiment analysis via embedding social contexts into an attentive LSTM
Yang J, Zou X, Zhang W, et al. Microblog sentiment analysis via embedding social contexts into an attentive LSTM[J]. Engineering Applications of Artificial Intelligence, 2021, 97: 104048.Abstract传统的微博情感分析方法往往假设微博是独立同分布的,忽略了微博是网络数据这一事实这些方法是基于内容的方法,因为它们不能原创 2022-03-23 16:02:38 · 1366 阅读 · 0 评论 -
【文献阅读】Graph Convolutional Networks for Text Classification
我们基于单词共现和文档单词关系为语料库构建单个文本图,然后为语料库学习文本图卷积网络(Text GCN)我们的 Text GCN 使用单词和文档的 one-hot 表示进行初始化,然后在已知文档类标签的监督下共同学习单词和文档的嵌入。Introduction这些深度学习模型可以很好地捕捉局部连续单词序列中的语义和句法信息,但可能会忽略携带不连续和长的语料库中的全局单词共现。距离语义(Peng et al. 2018)。图神经网络在被认为具有丰富关系结构的任务中非常有效,并且可以在图嵌入中保留图的全局原创 2022-03-21 08:48:45 · 460 阅读 · 0 评论 -
【文献阅读】Glyce: Glyph-vectors for Chinese Character Representations
Y uxian Meng, Wei Wu, Fei Wang, Xiaoya Li, Ping Nie, Fan Yin, Muyu Li, Qinghong Han, Xiaofei Sun, and Jiwei Li. 2019. Glyce: Glyph-vectors for chinese character representations. In Advances in Neural Information Processing Systems, volume 32, pages 2746原创 2022-03-21 08:46:28 · 338 阅读 · 0 评论 -
【文献阅读】ERNIE: Enhanced Representation through Knowledge Integration
Sun Y, Wang S, Li Y, et al. Ernie: Enhanced representation through knowledge integration[J]. arXiv preprint arXiv:1904.09223, 2019.Abstract知识增强的新语言表示模型ERNIE 旨在学习通过知识掩蔽策略增强的语言表示,包括实体级掩蔽和短语级掩蔽。实体级策略屏蔽了通常由多个单词组成的实体。 短语级策略隐藏了整个短语,它由几个单词组成一个概念单元。Introducti原创 2022-03-19 19:29:02 · 1522 阅读 · 0 评论 -
【文献阅读】Convolutional Sequence to Sequence Learning
Introduction卷积神经网络在序列建模中不太常见与循环层相比,卷积为固定大小的上下文创建表示,然而,网络的有效上下文大小可以很容易地通过将多个层堆叠在一起而变得更大解决方案:我们提出了一种完全卷积的序列到序列建模架构。 我们的模型配备了门控线性单元 (Dauphin et al., 2016) 和残差连接 (He et al., 2015a)。 我们还在每个解码器层中使用了注意力,并证明每个注意力层只会增加微不足道的开销。RNN-Seq2Seq已经提出了各种编码器-解码器架构,它们的主要原创 2022-03-19 19:26:45 · 759 阅读 · 0 评论 -
【文献阅读】播存网络体系结构普适模型及实现模式
播存网络:是一种未来互联网体系结构,为现有互联网体系结构增添一种以“广播辐射传输+泛在内容存储”为特征的辅助网络,这种次级结构称为播存网络播存网络模型阐述:设计理念:研究未来互联网体系结构的 合理途径,应该从互联网发展困境的根源出发,抓住互 联网体系结构与主流应用范型的关键失配之处,通过化 解主要矛盾寻求尽可能简单和有效的解决方案主要特色:与当前互联网结构功能协同、逻辑解耦,并且不妨碍各种针对互联网主结构的演进或重构方案关键实现机制:一对多,点到面辐射传输泛在化内容存储UCL在广播分发和原创 2020-09-12 11:13:00 · 130 阅读 · 0 评论 -
【文献阅读】《数字货币的匿名性研究》
本文是一篇综述,主要对中心化数字货币,去中心化数字货币以及法定货币三方面进行介绍其实现技术和优劣比较,并且主要对数字货币的匿名性进行分析文献提炼数字货币私人数字货币中心化数字货币去中心化数字货币法定数字货币数字货币的应用和性质数字货币的应用和性质要满足不可重复交易:双花匿名性:保护用户隐私不可伪造性:验真可传递性:转移使用过程中消除第三方的干预可拆分、可聚合:现实生活中的找零和组合支付私人货币中心化数字货币Juels系统是借助第三方参与构建中心化数字货币,但由于原创 2020-08-24 16:25:02 · 1043 阅读 · 0 评论 -
【文献阅读】《中央银行数字货币原型系统实验研究》
此文献类似于项目介绍,从业务,性能,优势以及不足和改进方法几个方面对央行数字货币进行了介绍文献补充:分布式账本技术:利用区块链技术以及共识算法,同步共享复制账本数据二元模式:中央银行将货币发行至商业银行,商业银行再发行给公众文献提炼:文献来源:姚前.中央银行数字货币原型系统实验研究.软件学报,2018,29(9):2716-2732...原创 2020-08-20 17:58:14 · 708 阅读 · 0 评论 -
【文献阅读】《区块链跨链技术进展研究》
首次正式阅读文献,决定做一些简单的笔记整理,笔记格式和内容还在摸索阶段,期望找到适合自己的记录方式,所以仍存在许多不足之处文献补充跨链技术:跨链技术是区块链实现互联互通,提升可扩展性的重要手段,诣在解决各区块链之间的数据通信、价值转移和价值孤岛的现象比特币区块链时代:本文作者以2017年5月为分界线,在此时间节点,比特币市值占比首次低于50%文献提炼跨链的划分可以分为区块链内部各个子链/主链之间不用区块链系统之间跨链目的及解决方向不同区块链之间的资产转移:利用技术代替机构和个人实原创 2020-08-06 10:13:57 · 674 阅读 · 0 评论