NeHAO_WU
码龄5年
关注
提问 私信
  • 博客:16,311
    16,311
    总访问量
  • 11
    原创
  • 959,675
    排名
  • 10
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2019-12-06
博客简介:

NeHAO_WU的博客

查看详细资料
个人成就
  • 获得17次点赞
  • 内容获得3次评论
  • 获得76次收藏
  • 代码片获得155次分享
创作历程
  • 1篇
    2022年
  • 9篇
    2021年
  • 1篇
    2020年
成就勋章
TA的专栏
  • problem
    1篇
  • 作业
    3篇
  • 爬虫
    1篇
  • 笔记
    2篇
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

【解决问题】使用pycharm安装wordcloud所遇到的问题并解决

正常情况的第三方库在pycharm—>settings—>project interrupt 进行安装,一般都是可以的。但是wordcloud这个库却总是下不下来。在参考了众多大佬的文章,然后进行了一个归纳改进,成功把这个库给下下来了首先在https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud这个python库的网站针对自己的Python版本下载对应的wordcloud将文件保存到自己python的安装文件路径内不清楚自己的路径在
原创
发布博客 2022.03.22 ·
3096 阅读 ·
3 点赞 ·
1 评论 ·
9 收藏

【练习/sklearn库基础】使用分类决策树、回归决策树、分类随机森林、回归随机森林进行分类预测,条形图的形式显示评估结果

声明:1、 学生刚开始学习python,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径4、如果有问题请在评论区指出,虚心接受立马改正做题途中所遇问题:无代码块:#2、 导入sklearn库自带的乳腺癌数据集(load_breast_cancer),# 使用分类决策树、回归决策树、分类随机森林、回归随机森林进行分类预测,# 并使用score()方法评估4种算法的性能,并以可视化图形(条形图)
原创
发布博客 2021.12.09 ·
1153 阅读 ·
1 点赞 ·
0 评论 ·
4 收藏

【练习/sklearn库基础】使用LinearRegssion、Lasso、Ridge进行回归预测,并计算各模型的评估结果,用条形图显示。

声明:1、 学生刚开始学习python,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径4、如果有问题请在评论区指出,虚心接受立马改正做题途中所遇问题:1.在条形图上方标注各个评分值,忘了,搞了老半天搞出来代码块:#1、 导入sklearn库自带的乳腺癌数据集(。load_breast_cancer),使用LinearRegssion、Lasso、Ridge进行回归预测,并计算各模型的评估结果,
原创
发布博客 2021.12.09 ·
935 阅读 ·
2 点赞 ·
0 评论 ·
7 收藏

【练习/sklearn库基础】导入sklearn库自带的乳腺癌数据集,分别使用GaussianNB、MultinomialNb、BernouliNB、SVM及KNN5种分类器进行分类预测

声明:1、 学生刚开始学习python,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径4、如果有问题请在评论区指出,虚心接受立马改正做题途中所遇问题:无代码块:在这里插入代码片#4、导入sklearn库自带的乳腺癌数据集,分别使用GaussianNB、MultinomialNb、BernouliNB、SVM及KNN5种分类器进行分类预测,并比较输出5种分类器预测的准确率优劣。#sklear
原创
发布博客 2021.12.05 ·
6887 阅读 ·
3 点赞 ·
0 评论 ·
33 收藏

【练习】爬取房屋信息,获取房屋信息编号、价格、描述,保存进excel文件,并将房价绘制成折线图进行显示。

声明:1、 学生刚开始学习爬虫,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径4、如果有问题请在评论区指出,虚心接受立马改正做题途中所遇问题:1,split以|分割数据,分别保存入excel表,但是中间如果某项数据是无。数据就乱了,问题解决不了2.做柱形图以为只要用matplotlib就行了,后来发现要使用excel表要是用pandas和xlrd才行代码块:#1、爬取https://sh.l
原创
发布博客 2021.11.14 ·
1117 阅读 ·
3 点赞 ·
1 评论 ·
7 收藏

【练习】爬取百度更多的分类标题,

声明:1、 学生刚开始学习爬虫,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径做题途中所遇问题:无代码块:import requestsfrom bs4 import BeautifulSoup#请求网址权限response=requests.get("https://www.baidu.com/more/")#自动索取编码response.encoding=response.appa
原创
发布博客 2021.11.07 ·
151 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

【练习】获取新浪搜索中的热搜榜的标题

声明:1、 学生刚开始学习爬虫,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径做题途中所遇问题:1.最为基础的爬虫,基本没有问题代码块:import requestsfrom bs4 import BeautifulSoupresponse = requests.get("https://search.sina.com.cn/")response.encoding = response.
原创
发布博客 2021.11.07 ·
259 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

【练习】翻页爬取图书信息200条,显示并保存为excel文件

import requestsfrom bs4 import BeautifulSoupimport xlwtdef main(): html="http://bang.dangdang.com/books/fivestars/1-" list=getData(html) savepath=".\\图书记录200条.xls" saveData(list,savepath)def getData(html): list=[] for i in range
原创
发布博客 2021.11.07 ·
738 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

【练习】爬取当当网中的好评榜图书信息,显示并保存为excel文件

声明:1、 学生刚开始学习爬虫,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径做题途中所遇问题:1.同class名的div标签想要单独取用第二个。但是一直没法,最后使用find_all标签一起取用成列表格式,再进行选取2.for循环嵌套有点不熟悉折腾好久才弄清楚循环,基础不扎实。代码行:import requestsfrom bs4 import BeautifulSoupimport x
原创
发布博客 2021.11.05 ·
855 阅读 ·
3 点赞 ·
1 评论 ·
13 收藏

【练习】爬取页面数据单纯BeautifulSoup方法

爬取起点中文网页面数据,获取文章标题、小说作者、小说类别、小说的描述和最后更新日期因还未学到正则表达式,所以是用BeautifulSoup方法声明:1、 学生刚开始学习爬虫,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助2、 如果要转载,请标记出来源3、本文纯粹用于技术练习,请勿用作非法途径代码行:import requestsfrom bs4 import BeautifulSoupresponse=requests.get("https://www.qidi
原创
发布博客 2021.11.04 ·
805 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

前端H5.CSS入门小结

一、网页的基本构成元素1.文本2.图片和动画3.超链接4.导航栏5.交互表单6.其中常见元素二、网页制作部分HTML、CSS静态网站HTML、CSS、JavaScript动态网站三、HTML部分0.文字段落与标题p标签:格式:文字功能:段落空行h标签:格式:从H1~H6由大至小1.超链接:a元素:格式:其功能有:(1)普通链接(跳转地址超链接)(2)锚...
原创
发布博客 2020.02.18 ·
315 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏