因为之前就对python有所了解,所以就不对Python的安装与环境配置有过多的说明了(这好像也不是初识哦,哈哈)。
这里使用python3.7 Spyder集成开发环境,因为使用的是Anaconda自带很多第三方库所以这里就不对第三方库的导入有过多的说明了。
编写第一个简单的爬虫
# -*- coding: utf-8 -*-
import requests
url="https://www.qidian.com/"#起点中文网的url,这里是目标网址
r=requests.get(url)#使用requests中get方法来拿到这个url
print(r.status_code)#打印的返回状态码200表示成功404代表失败
打印结果:200
以文本的形式打印网页
print(r.text)#以文本的形式打印出网页
内容过多只贴出一部分
可以发现网页中有很多奇怪的字符,并没有像我们常见的那种汉字之类的。
通过查找requests库的方法和属性找到r.apparent_encoding从内容中分析出的响应内容编码方式
和r.encoding从HTTP header中猜测的响应内容编码方式
使用上述两个属性重新打印网页文本。
# -*- coding: utf-8 -*-
import requests
url="https://www.qidian.com/"#起点中文网的url,这里是目标网址
r=requests.get(url)#使用requests中get方法来拿到这个url
print(r.status_code)#打印的返回状态码200表示成功404代表失败
print(r.text)#以文本的形式打印出网页
r.encoding=r.apparent_encoding
print(r.text)
运行结果
会发现有那些我们熟悉的字眼。
贴出requests库的常用方法和response对象的属性