自然语言处理
文章平均质量分 61
自然语言处理
兀坐晴窗独饮茶
我的个人博客 http://knightzz.cn/
展开
-
Latex相关文章
前言保存一些latex有用的文章列表期刊bibitem格式参考文献批量生成原创 2022-05-23 16:45:29 · 118 阅读 · 0 评论 -
Neo4j的安装与使用
Neo4j下载参考文档 :Neo4j安装及简单使用neo4j与jdk版本特别注意 : Neo4j 的 4.x 版本仅支持 JDK11 如果要使用 JDK8 请下载Neo4j 的 3.5 版本Neo4j社区版下载地址 : https://neo4j.com/download-center/#community点击以后稍微等一会会自动下载, 如果没有自动下载Neo4j安装Neo4j应用程序有如下主要的目录结构:bin目录:用于存储Neo4j的可执行程序;conf目录原创 2022-03-14 18:41:25 · 970 阅读 · 0 评论 -
从零开始学习神经网络 - torch_geometric库下载
1. torch_geometric 环境搭建No module named torch_sparse, 及pytorch-geometric安装pytorch-geometric-whl图神经网络库PyTorch geometric(PYG)零基础上手教程找到自己对应的版本即可我的 CUDA版本 : 10.2Pytorch版本 : 1.10.0根据具体情况选择版本pip install torch-scatter==2.0.9 -f https://pytorch-geome原创 2022-03-04 17:24:23 · 586 阅读 · 0 评论 -
从零开始学习图神经网络 - 图的基本知识以及NetworkX库
1. 图的基础知识1.1 中心性1.1.1 度中心性度中心性的计算公式度中心性=Ndegreen−1度中心性 = \dfrac{N_{degree}}{n - 1}度中心性=n−1NdegreeNdegreeN_{degree}Ndegree 是指当前节点的度n 是指节点数1.1.2 特征向量中心性特征向量中心性特征向量中心性不仅仅考虑当前节点的度还考虑了和它相邻节点的度1.1.3 中介中心性中介中心性Betweeness=其他节点经过该节点的最短原创 2022-03-01 09:47:46 · 1420 阅读 · 0 评论 -
从零开始学习NLP - 综述与论文查找指南(待更新)
常用网站arxiv每日学术速递dblparxivGithub仓库https://github.com/MLNLP-World/Top-AI-Conferences-Paper-with-Code该存储库是具有开放资源代码的 AI 顶级会议论文(例如 ACL,EMNLP、NAACL、COLING、AAAI、IJCAI、ICLR、NeurIPS 和 ICML)的集合QA :1. 如何查找英文的综述?方法1 : 看标题,综述性文章一般在标题就会出现 review或者survey这原创 2022-01-12 16:07:00 · 1025 阅读 · 0 评论 -
《自然语言处理指南》- 卷积神经网络在文本分类上的应用(更新中)
文章目录TextCNN模型结构卷积操作在文本上的应用数据源定义数据embedding卷积层操作池化层操作全连接层完整代码TextCNN模型结构卷积操作在文本上的应用数据源定义数据为 128 * 30 的文本转索引的数据 即 128行, 单个句子为30个词的文本即 batch_size = 128 和 max_seq_len = 30数据embeddingnum_embeddings : 文本中所有不重复单词的个数embedding层会生成 num_embeddings * em原创 2021-11-02 20:09:43 · 874 阅读 · 0 评论 -
自然语言处理学习路线以及资料 (持续更新)
1. Python基础技能 ????Python 基础 ????廖雪峰PythonPandas ????Pandas数据分析从入门到实战Pandas 基础命令速查表原创 2021-09-22 20:06:35 · 201 阅读 · 0 评论 -
《自然语言处理》- Jieba分词器的使用
1. jieba 中文分词处理import jiebatext = "大部分情况下,词汇是我们对句子和文章理解的基础,因此需要一个工具去把完整的文本中分解成粒度更细的词。"cut_result = jieba.cut(text, cut_all=True) # 全模式print(cut_result)print("\n全模式 : " + "/ ".join(cut_result))cut_result = jieba.cut(text, cut_all=False) # 精确模式pr原创 2021-09-16 17:04:34 · 544 阅读 · 0 评论 -
《自然语言处理》- 字符串常用操作
1. 字符串操作1.1 去空格和特殊符号strip() 去除两端的空格lstrip() 去除左边空格lstrip(str) 去除左边以 str 开头的部分, 必须完全匹配rstrip() 去除右边空格rstrip(str) 去除右边以 str 结尾的部分, 必须完全匹配s = ' hello , world!'print('|' + s.strip() + '|')print('|' + s.lstrip(' hello , ') + '|') # 删除以 hello原创 2021-09-11 17:25:47 · 230 阅读 · 2 评论 -
《自然语言处理》- Python正则表达式
1. Python 正则表达式1.1 正则表达式语法1.2 正则表达式工具在线验证工具正则练习工具2. Python案例Re 模块使用re的一般步骤是将正则表达式的字符串形式编译为 Pattern 实例使用 Pattern 实例处理文本并获得匹配结果(一个 Match 实例)使用 Match 实例获得信息,进行其他的操作。# encoding: UTF-8import rerule = r'hello.*\!' # 正则表达式规则 : 匹配 hello 开头, !原创 2021-09-11 17:25:08 · 170 阅读 · 0 评论 -
NLTK - 停用词下载
1. 停用词下载NLTK : https://www.nltk.org/data.html停用词下载地址 : http://www.nltk.org/nltk_data/2. 安装将下载后的 stopwords 放在虚拟环境的指定位置, nltk_data 和 corpora 是需要自己创建的3. 使用下载器下载这种方法很多时候是不能用的, 因为网络原因, 更换网络或者用自己手机热点多试几次, 不行的话就使用上面的手动下载的方式...原创 2021-09-10 12:47:14 · 1888 阅读 · 0 评论