爬虫的基础概念和requests模块简单使用
爬虫的概念
什么是爬虫:
网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟浏览器发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序。
模拟浏览器,发送请求,获取响应
原则上,只要是浏览器(客户端)能做的事情,爬虫都能够做
爬虫获取数据的用途:
在网页或者app上进行展示;
进行数据分析或者机器学习相关的项目;
爬虫的更多用途:
12306抢票
网站上的投票
短信轰炸
爬虫的分类和爬虫的流程:
爬虫的分类:
根据被抓取网站的数量不同:
通用爬虫:通常指搜索引擎的爬虫
聚焦爬虫:针对特殊网站的爬虫
爬虫的流程:
requests模块的简单使用
没有的先pip安装一下requests模块,然后开始使用,可以查看官方文档
常用属性
属性 | 功能 |
---|---|
response.text | 响应体 str类型 |
respones.content | 响应体 bytes类型 用于多媒体数据爬取 |
response.status_code | 响应状态码 |
response.request.headers | 响应对应的请求头 |
response.headers | 响应头 |
response.request._cookies | 响应对应请求的cookie |
response.cookies | 响应的cookie(经过了set-cookie动作) |
下面是简单的一个百度图片爬取
import requests
response = requests.get('https://imgsa.baidu.com/forum/pic/item/a12f211f95cad1c873238acd713e6709c83d5125.jpg')
# def get(url, params=None, **kwargs):
print(response.status_code)
print(response.headers)
if response.status_code == 200:
print('请求成功')
print('编码方式', response.encoding)
png_data = response.content
# print(req.content) # bytes类型,多媒体文件用这个
with open('a.jpg', 'wb+') as f:
f.write(png_data)
# print('text', response.text)
爬取贴吧图片流程
- 先确定要爬取的图片内容,右键检查图片,获取图片的网址
- 然后去检查页的network-doc,点击文件并查看response
- 利用正则去匹配对应的规则即可
爬取图片并保存到本地
爬虫最好添加请求头伪装成浏览器:
import requests
import re
from threading import Thread
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
}
def get_url_list(url, n):
# 根据url和n来拼接路径,n是指要爬取n页的内容
# 返回拼接好的路径列表
ret_list = []
for i in range(0, n):
url_str = url + str(0+ i*50)
ret_list.append(url_str)
return ret_list
def main():
# pikaqiu贴吧
base_url = 'https://tieba.baidu.com/f?kw=%E7%9A%AE%E5%8D%A1%E4%B8%98&ie=utf-8&pn='
url_list = get_url_list(base_url, 10)
# 复制网页上的代码来修改,只是来看的
exam1 = 'bpic="https://imgsa.baidu.com/forum/w%3D580%3B/sign=63eec57520dda3cc0be4b82831d23b01/35a85edf8db1cb13618c60f9d354564e93584b76.jpg" class="threadlist_pic j_m_pic "'
# 写出对应的正则匹配值
pat = 'bpic="(.*?)" class="threadlist_pic'
for url in url_list:
# 遍历贴吧页并获得图片地址
req = requests.get(url=url, headers=headers, allow_redirects=False)
# print(req.text)
pic_url_list = re.findall(pattern=pat, string=req.text)
print(pic_url_list)
# 爬取图片地址并保存
pic_thread = Thread(target=save_pic, args=([pic_url_list, ]))
pic_thread.start()
def save_pic(url_list):
# 爬取图片然后写入到文件夹中
for url in url_list:
try:
r = requests.get(url=url, headers=headers)
# 截取
sss = url[-21:]
jpg_data = r.content
with open('pika/%s' % sss, 'wb+') as f:
f.write(jpg_data)
except Exception as e:
print(e)
print('保存图片失败')
if __name__ == '__main__':
main()