![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自然语言处理NLP
文章平均质量分 87
zcongfly
物流工程专业,主攻算法,涉猎机器学习、深度学习、区块链开发和数据库相关的一些东西,写博客完全出于工作和学习的习惯性记录,不喜欢CSDN上的资源分享策略,所以所有博客相关的资料(包括需要积分下载的资料)可前往公众号“拾烩”后台私信我获取,希望能帮到你!
展开
-
【自然语言处理NLP】社区发现快速入门
关系型数据,又名“”,指关系数学模型中以的形式来描述的数据,它以表格形式组织,使用行和列来存储和表示数据之间的关系。关系型数据可以用在图模型中,可以使用图的节点和边来建模关系型数据,关系型数据被建模为图(graphs)或超图(hypergraphs)。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TvrDROrw-1690345122210)(assets/image-20230724201507842.png)]原创 2023-07-26 12:20:16 · 385 阅读 · 0 评论 -
【自然语言处理NLP】DPCNN模型论文精读笔记
较早的层级捕捉到更局部的信息,而随着网络的深化,较深层级可以捕捉到更全局的信息。因此,通过深化网络并使用"pyramid"结构,DPCNN能够利用不同层级的卷积和池化操作,以一种分层的方式有效地发现文本中的长距离关系,并从中获得更全局的信息。这种降采样操作有助于缩小特征图的空间范围,提取更高级别的语义信息,并促使模型在更高层次的卷积块中学习到更全局的特征和上下文关系。因此,在DPCNN中的下采样操作通过池化层和步幅为2的池化操作,降低特征图的尺寸,减少计算复杂度,并帮助模型学习到更全局的语义信息。原创 2023-06-25 20:56:15 · 934 阅读 · 0 评论 -
【自然语言处理NLP】Bert预训练模型、Bert上搭建CNN、LSTM模型的输入、输出详解
通过使用不同宽度的卷积核,模型能够同时捕捉不同范围的语义信息,从而提高模型对输入文本的理解能力。是一个与输入张量形状相同的二进制张量(0和1组成),用于指示哪些位置是有效的(1表示有效)和哪些位置是填充的(0表示填充)。令牌的表示可以用作整个序列的汇总或句子级别的表示,通常用于下游任务的分类或句子级别的特征提取。这些属性提供了BERT模型在不同层级和注意力机制上的输出信息,可以根据任务的需求选择合适的属性来使用。,表示模型在每个位置上关注另一个输入序列(如句子级别的任务中的两个句子)的程度。原创 2023-06-24 20:15:35 · 7775 阅读 · 8 评论