Python爬虫 --简单多线程爬取糗事百科

学习爬虫的过程中练习爬取网页的HTTP协议请求大多数是get,相比post请求来说获取数据量小受浏览器限制。所以现在采用多线程爬取的方式来提高get获取的速度

get请求与post请求的一般区别:

get方法:

1、用来请求资源
2、url中传输实体数据
3、传输的数据量小(受浏览器限制)

post方法:

1、用来传输实体数据(本质上更专业)
2、在实体中传输数据
3、传输的数据量大

我在这里给大家介绍糗事百科的多线程爬取
糗事百科网址:https://www.qiushibaike.com/hot/page/1/

利用了第三方库requests

# 模拟headers信息
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.80 Safari/537.36'}
# 解析和存储信息
    with open('F:\\糗事百科\\第{}页.txt'.format(page), 'w', encoding='utf-8') as f:
        for i in re.findall('<div class="content">\s+<span>(.*?)</span>', response.text, re.S):
            f.write(re.sub('\s+|<br/>', ' ', i) + '\n\n')

下面展示完整代码:

# -*- coding: utf-8 -*-

import requests
import re
import threading

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.80 Safari/537.36'}

count = 0


def get_content(page):
    global count
    count += 1
    url = 'https://www.qiushibaike.com/hot/page/{}/'.format(page)
    response = requests.get(url, headers=headers)
    response.encoding = 'utf-8'
    with open('F:\\糗事百科\\第{}页.txt'.format(page), 'w', encoding='utf-8') as f:
        for i in re.findall('<div class="content">\s+<span>(.*?)</span>', response.text, re.S):
            f.write(re.sub('\s+|<br/>', ' ', i) + '\n\n')


if __name__ == '__main__':
    for i in range(1, 14):
        t = threading.Thread(target=get_content, args=(i,))
        t.start()

效果如图:
在这里插入图片描述
在这里插入图片描述

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hokool

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值