- 博客(25)
- 收藏
- 关注
转载 [VSCode]command ‘python.setInterpreter‘ not found
[VSCode]command ‘python.setInterpreter’ not foundvscode中的python插件突然出了问题:在Ctrl+Shift+P后选择Python: Select Interpreter, vscode报了错误:command ‘python.setInterpreter’ not found解决方法:菜单栏的文件 -> 首选项 -> 设置, 搜索 python.pythonPath在出现的结果里,把pythonPath对应的值修改为实际系统中
2021-06-08 19:58:01
2973
3
转载 Ubuntu修改密码和用户名
亲测可用https://blog.csdn.net/qq_28959531/article/details/78989635
2019-08-20 11:11:01
109
转载 【目标检测】SSD算法--损失函数的详解(tensorflow实现)
https://blog.csdn.net/Tomxiaodai/article/details/82354720?utm_source=blogxgwz3
2019-08-12 11:18:42
1190
转载 图像特征提取之LBP特征
超级详细https://blog.csdn.net/Zachary_Co/article/details/78807627
2019-08-01 20:29:46
232
转载 python中的赋值和拷贝讲解是最详细的
https://blog.csdn.net/weixin_38714036/article/details/81779036
2019-08-01 01:12:23
72
转载 tensorflow重要参考资料
https://blog.csdn.net/u013510838/article/details/84103503
2019-07-28 18:19:52
400
转载 tensorflow训练数据详细操作
https://blog.csdn.net/ReversalC/article/details/93639151
2019-07-14 11:01:22
151
转载 Ubuntu 16.04看机子的信息
https://blog.csdn.net/coding_sun/article/details/78826523?fps=1&locationnum=7Ubuntu安装cuda后出现黑屏或登陆界面无限循环问题解决http://blog.sina.com.cn/s/blog_92d2c5e10102x8iu.htmlubuntu16.04环境下, Ctrl+Alt+F1 进入终端字符...
2019-07-02 11:34:19
215
转载 帧间差分法、背景减法、光流场法简介
思想https://blog.csdn.net/zhang1308299607/article/details/80081553
2019-06-28 10:03:11
278
原创 使用gensim 框架 实现 LDA主题模型
整体过程就是:首先拿到文档集合,使用分词工具进行分词,得到词组序列;第二步为每个词语分配ID,既corpora.Dictionary;分配好ID后,整理出各个词语的词频,使用“词ID:词频”的形式形成稀疏向量,使用LDA模型进行训练。参考:https://www.jianshu.com/p/22c2334cf601...
2019-05-13 22:53:56
3063
原创 Jupyter notebook
http://localhost:8888/?token=38de3685cbb47af33157df1c00799ef0d03c849e941f732a在浏览器中输入http://localhost:8888/再输入38de3685cbb47af33157df1c00799ef0d03c849e941f732a token就可以不用默认浏览器了...
2019-05-09 19:23:14
201
转载 jieba总结
jieba"结巴"中文分词:做最好的Python中文分词组件 “Jieba”。Feature支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。支持繁体分词支持自定义词典(如何上传自己的词典呢,词典...
2019-04-18 09:05:16
698
原创 jieba
jieba'结巴‘中文分词:是广泛的使用的中文分词工具,具有以下特点:1)三种分词模式:精准模式,全模式,和搜索引擎模式2)词性标注和返回词语在原文的起止位置(Tokenize)3)可加入自定义字典4)代码对Python2/3均兼容5)支持多种语言,支持简体繁体项目地址:https://github.com/fxsjy/jiebaStanford NLP提供了一系列自然语言分析工...
2019-04-17 08:30:54
650
原创 pycharm 遇到的问题
pycharm 一直index 写代码的时候不会出现提示解决方案https://stackoverflow.com/questions/29030682/pycharm-4-0-5-hangs-on-scanning-files-to-index-background-task
2019-04-11 10:42:36
217
原创 中文分词技术
1.词是最小的能够独立活动的有意义的语言成分将词确定下来是自然语言处理的第一步才能像英文一样可以短语划分、概念抽取以及主题分析,以至自然语言理解,最终达到智能计算词是以字为基本单位语义需要词来划分需要分词处理,将句子转化为词这个切词的处理过程,就是中文分词目标:通过计算机自动识别出句子的词,在词间加入边界标记符,分隔出各个词汇影响分词效果的因素:语义,未登录词,分词粒度粗细等方...
2019-04-11 00:25:06
131
原创 Numpy基础
1.genfromtxt()来转化数据类型dtype 数据的属性 U75表示75byte的unicodeskip_header可以设置为整数,这个参数可以跳过文件开头对应的行数,然后再执行其他操作代码如下:import numpy as npnf2 = np.genfromtxt(‘E:/House_Prices-master/House_Prices-master/data/test....
2019-04-11 00:06:33
238
转载 数据集下载网址收藏
数据集下载(官方)Datasets for machine learninghttps://www.datasetlist.com/推荐两个查找数据集的网站:Kaggle datasets:https://www.kaggle.com/datasetsUCI machine learning repository:https://wordnet.princeton.edu/...
2019-04-10 18:22:01
1599
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人