![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Python爬虫
.
不秃头的小李同学
这个作者很懒,什么都没留下…
展开
-
requests 使用基础
request基础用法、一①get请求通过get获取http的内容、status_code、cookies。此处我们以百度为例import requests ##导入requests 库res = requests.get('https://www.baidu.com') ##get('解析网址')print(res.text) ##打印内容(HT...原创 2019-03-31 00:40:24 · 9482 阅读 · 1 评论 -
python爬虫实战二、多页爬取全篇小说并分章节保存本地
多页爬取全篇小说并分章节保存本地有需要爬取一些文章来满足自己开发的实际需要,以下以爬取经典小说《西游记》为例,共计101回。在开始之前我们需要导入我们需要的库:①beautifulsoup4②requests③lxml根据实际需要导入自己需要的库,也可以不用以上的库,自己熟悉哪种解析库,便优先选取哪种。本次爬取的网站为诗词名句网中的西游记小说总代码如下:from bs4 impo...原创 2019-06-17 17:34:30 · 7174 阅读 · 2 评论 -
python爬虫实战一、爬取酷我音乐榜单并写入txt文件保存到本地
python爬虫实战一、爬取酷我音乐榜单并写入txt文件保存到本地一、总代码和运行截图#加载需要的库import requestsfrom bs4 import BeautifulSoupfrom lxml import etreef = open("C:\\Users\LeeChoy\Desktop\kuwomusic.txt",'w+',encoding='utf-8') #...原创 2019-05-16 17:29:49 · 5115 阅读 · 1 评论