python多线程爬取qq好友空间的留言


前言

今天讲一下怎么样爬qq好友空间的留言


提示:以下是本篇文章正文内容,下面案例可供参考

一、分析

1.好友空间需要登陆才能获取,所以我们需要一个cookie
2.然后才能进行我们的一个爬虫

1.获取cookie

QQ空间登陆链接
进入后先摁下F12,再扫码或者账号密码登录空间。
在这里插入图片描述
进入空间后点击先Network,选择All,将滚轮滑到最上面,点击第一个含有你qq号的链接,右边出来以后往下滑找到cookie这里的cookie就是我们需要的了。
在这里插入图片描述

2.分析含留言内容的url

cookie有了我们就来分析好友留言板的链接。
进入好友空间,并点击留言板,摁下F12,选择XHR,然后把网页滑到最下面点击第二页加载完成后点击第三页然后右边name下就会出现类似的几个网页,这里我们需要的留言内容在一个get_msgb开头的链接下。
在这里插入图片描述
然后再回过头来比较他们的url,这里选择三个相邻的url来作比较。
这里呢我找到两个不同的地方,但是我发现第二个r=后面一串数字好像不加上也没问题,一样请求能得到响应。
那么就来看这第一个不同的地方,这一看是成倍数增长的,那么就可以确定他是(页数-1)*10得来的。
在这里插入图片描述

二、代码与效果

1.源代码

代码如下(示例):

# -!- coding: utf-8 -!-
import re
import time
import requests
from threading import Thread #多线程


class Qqspider:

    def __init__(self):
        self.url = 'https://user.qzone.qq.com/proxy/domain/m.qzone.qq.com/cgi-bin/new/get_msgb?uin=#这里是你自己的账号#&hostUin=#好友的账号#&num=10&start={}&hostword=0&essence=1&iNotice=0&inCharset=utf-8&outCharset=utf-8&format=jsonp&ref=qzone&g_tk=1453454822&g_tk=1453454822'  #这里的start一定要={}!!!记得复制粘贴的一定要修改!!!
        self.headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36',
    'cookie':'写入自己空间的cookie',
}
        self.lis = []
        self.f = open('content1.txt','w',encoding='utf-8') #写入一个txt文本

    #请求函数
    def get_html(self,url):
        response = requests.get(url=url,headers=self.headers)
        return response

    #数据解析函数
    def parse_html(self,regex,html):
        content = regex.findall(html)
        for i in content:
            item = {}
            item['qq'] = i[0]
            item['name'] = i[1]
            item['content'] = i[2]
            self.f.write(i[1]+' >>> '+i[2]+'\n')
            print(item)

    #数据提取函数
    def crawl(self,i):
        while self.lis:
            response = self.get_html(self.lis.pop(0)).text
            regex = re.compile('"uin":(.*?),.*?"nickname":"(.*?)",.*?"capacity":.*?,.*?"htmlContent":".*?",.*?"ubbContent":"(.*?)",',re.S)
            self.parse_html(regex,response)
            print('{}完成一個!'.format(i))
            time.sleep(0.2)

    # 创建多线程
    def job(self): 
        jobs = []
        for i in range(16):
            a = Thread(target=self.crawl,args=(i,))
            jobs.append(a)
            a.start()
        [i.join() for i in jobs]

    #主函数
    def run(self):
        for i in range(158): #空间留言的页数
            self.lis.append(self.url.format(i*10))
        self.job()
        self.f.close()


if __name__ == '__main__':
    spider = Qqspider()
    spider.run()

2.效果展示

在这里插入图片描述
一共1575条留言,一条不差在这里插入图片描述

总结

大家有什么不懂得地方可以私信我哦。要是有什么不对的地方还望大佬指出。
谢谢大家的点赞与阅读,

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值