爬虫的基础概念和requests模块简单使用

爬虫的概念

什么是爬虫:

网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟浏览器发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序。

模拟浏览器,发送请求,获取响应

原则上,只要是浏览器(客户端)能做的事情,爬虫都能够做

爬虫获取数据的用途:

在网页或者app上进行展示;
进行数据分析或者机器学习相关的项目;

爬虫的更多用途:

12306抢票
网站上的投票
短信轰炸

爬虫的分类和爬虫的流程:

爬虫的分类:

根据被抓取网站的数量不同:

通用爬虫:通常指搜索引擎的爬虫
聚焦爬虫:针对特殊网站的爬虫

爬虫的流程:

在这里插入图片描述

requests模块的简单使用

没有的先pip安装一下requests模块,然后开始使用,可以查看官方文档

常用属性

属性功能
response.text响应体 str类型
respones.content响应体 bytes类型 用于多媒体数据爬取
response.status_code响应状态码
response.request.headers响应对应的请求头
response.headers响应头
response.request._cookies响应对应请求的cookie
response.cookies响应的cookie(经过了set-cookie动作)

下面是简单的一个百度图片爬取

import requests

response = requests.get('https://imgsa.baidu.com/forum/pic/item/a12f211f95cad1c873238acd713e6709c83d5125.jpg')
# def get(url, params=None, **kwargs):
print(response.status_code)
print(response.headers)

if response.status_code == 200:
    print('请求成功')
    print('编码方式', response.encoding)
    png_data = response.content
    # print(req.content)  # bytes类型,多媒体文件用这个
    with open('a.jpg', 'wb+') as f:
        f.write(png_data)
    # print('text', response.text)

爬取贴吧图片流程

  • 先确定要爬取的图片内容,右键检查图片,获取图片的网址
  • 然后去检查页的network-doc,点击文件并查看response
  • 利用正则去匹配对应的规则即可
    在这里插入图片描述

爬取图片并保存到本地

爬虫最好添加请求头伪装成浏览器:

import requests
import re
from threading import Thread

headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
}


def get_url_list(url, n):
    # 根据url和n来拼接路径,n是指要爬取n页的内容
    # 返回拼接好的路径列表
    ret_list = []
    for i in range(0, n):
        url_str = url + str(0+ i*50)
        ret_list.append(url_str)

    return ret_list

def main():
    # pikaqiu贴吧
    base_url = 'https://tieba.baidu.com/f?kw=%E7%9A%AE%E5%8D%A1%E4%B8%98&ie=utf-8&pn='
    url_list = get_url_list(base_url, 10)

    # 复制网页上的代码来修改,只是来看的
    exam1 = 'bpic="https://imgsa.baidu.com/forum/w%3D580%3B/sign=63eec57520dda3cc0be4b82831d23b01/35a85edf8db1cb13618c60f9d354564e93584b76.jpg" class="threadlist_pic j_m_pic "'
    # 写出对应的正则匹配值
    pat = 'bpic="(.*?)" class="threadlist_pic'

    for url in url_list:
        # 遍历贴吧页并获得图片地址
        req = requests.get(url=url, headers=headers, allow_redirects=False)
        # print(req.text)
        pic_url_list = re.findall(pattern=pat, string=req.text)
        print(pic_url_list)
        # 爬取图片地址并保存
        pic_thread = Thread(target=save_pic, args=([pic_url_list, ]))
        pic_thread.start()


def save_pic(url_list):
    # 爬取图片然后写入到文件夹中
    for url in url_list:
        try:
            r = requests.get(url=url, headers=headers)
            # 截取
            sss = url[-21:]
            jpg_data = r.content
            with open('pika/%s' % sss, 'wb+') as f:
                f.write(jpg_data)
        except Exception as e:
            print(e)
            print('保存图片失败')

if __name__ == '__main__':
    main()
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值