自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 tensorflow中Modelcheckpoint无法保存h5文件及加载问题

tensorflow中Modelcheckpoint无法保存h5文件及加载问题保存问题保存路径一定要正确,报的错误为OSError: Unable to create link (name already exists)则可能是自定义的网络层需要给每个权重及偏置命名,比如self.kernel = self.add_weight(shape=kernel_shape, initializer=self.kernel_init

2021-10-20 15:54:30 1256

原创 wordcloud安装失败的解决办法

电脑是win7系统,且是32位的,安装的anaconda,现在要用wordcloud做词云图,一开始在Anaconda Prompt(anaconda)中“conda install wordcloud”和“pip install wordcloud”均失败,报错信息一大片,大概扫到了有Microsoft visual c++5 is required,上网一查各种解决办法都有,但是自己最后尝试到...

2020-03-19 14:02:49 7565

原创 nltk.data.load()应用及其要注意的事项

NLTK是一个自然语言处理的切分包,如果使用的是基本的Python,需要安装该包才能使用,笔者使用的是jupyter notebook(anaconda3)不需要自己安装,直接使用如下的代码即可使用import nltk本文的目的是nltk.download()的应用,所以不对nltk中的其他函数进行讲解。该函数是用来切分大批量的句子。使用前需要下载nltk中的相应的语言的 pikle文件(...

2020-01-02 17:19:07 2366

原创 学习笔记(2)Python——结巴分词

结巴分词模块的简单应用张华平NShort中文分词算法是目前大规模中文分词的主流算法,下面将介绍以其为核心的结巴分词算法。该模块在Python中使用机及其简单。不需要及其繁琐的安装步骤。结巴分词支持如下三种模式(1)精确模式,试图将句子最精确地切开,适合文本分析(2)全模式,把句子中所以可以成词的词语都扫描出来,速度非常快,但是不能解决歧义(3)搜索引擎模式,在精确模式的基础上对长词再次...

2019-12-26 17:54:36 698

原创 dataframe创建数据框并计算均值,标准差等

import pandas as pddata=pd.DataFrame({'name':['Tom','Cindy','john'], 'age':[24,23,22], 'high':[168,157,185], 'height':[58,47,58]})查看构建的数据框data...

2019-12-26 17:14:40 14439

原创 学习笔记——NLP汉语自然语言处理:原理与实践

学习笔记——NLP汉语自然语言处理:原理与实践自然语言处理(Natural Language Processing,NLP)是能够实现人与计算机之间用自然语言进行有效通信的各种理论方法,也是人工智能领域中一个最重要,最艰难的方向。NLP流程与开源框架自然语言处理的一般架构(1)从语法层面来说,是中文分词,词性标注,句法解析(2)从语义层面来说,是命名实体识别,语义组块,语义角色标注其中...

2019-12-26 16:43:13 599

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除