- 博客(7)
- 收藏
- 关注
原创 pytorch和tensorflow安装过程遇到的一系列问题和需要注意的事项
进入anaconda控制台,先激活自己的虚拟环境(activate+环境名),输入 python,之后输入 import torch,如果没有报错,意味着 pytorch 已经顺利安装了,接下来输入 torch.cuda.is_available(),如果是 True,意味着可以使用 GPU训练,如果是 False,意味着只能使用CPU了。使用tensorflow或pytorch的三种方法:1.进入anaconda->environment->tensorflow->开启,pytor
2021-11-22 16:50:37
1084
原创 决策树的导出与保存
决策树的导出与保存##用sklearn.tree.export_graphviz()该函数能够导出DOT格式tree.export_graphviz(estimator,out_file=‘tree.dot’,feature_name=[","])其中:estimator参数为估计器,out_file参数为导出路径参数,feature_name为特征名字##用graphviz可以将dot格式文件转换成png或者jpg格式文件可用pip来安装,命令:“pip install graphviz”然后
2021-02-28 11:44:45
2046
原创 数据的特征处理
#实例代码from sklearn.preprocessing import StandardScalerdef stand(): ''' 标准化缩放 :return: ''' std = StandardScaler() data = std.fit_transform([[1.,-1.,3.],[2.,4.,2.],[4.,6.,-1.]]) print(data) re...
2021-01-08 02:21:58
126
原创 tf_idf分析
Tf:term frequency:词的频率 出现的次数idf:逆文档频率inverse document frequency log(总文档数量/该次出现的文档数)from sklearn.feature_extraction.text import TfidfVectorizerimport jiebastr1= "今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。"str2 = "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我
2021-01-07 23:24:49
264
原创 jieba分词
jieba分词的入门应用接上次对文本数据进行特征化,由于我上次用的是英文数据,英文句子单词与单词之间自带空格,所以fit_transform(a)函数可以识别到一个个单词并将其提取为一个特征词存放在为列表里的一个字符串元素英文文本数据from sklearn.feature_extraction.text import CountVectorizer, TfidfVectorizerdef countvec(): """ 对文本进行特征值化 :return: None
2021-01-07 22:42:57
1096
原创 sklearn特征抽取API
Sklearn特征抽取API特征抽取对文本等数据进行特征值化Sklearn:对于特征处理提供了强大的接口特征工程:把拿到的数据集里的那些字符串、汉字等无法被用于直接运算的数据转化成可运算的数字。特征工程的意义:直接影响预测结果需要用到的类:sklearn.feature_extraction字典特征抽取作用:对字典数据进行特征值化# 特征抽取## 导入包# from sklearn.feature_extraction.text import CountVectorizer
2021-01-07 02:02:02
222
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人