python3爬虫用代理池爬虫搜狗微信文章

本文是通过搜狗微信,爬取有关python相关文章的标题,正文内容,公众号,发表日期等信息,把获取到的信息保存到mongodb中,因为需要用到代理池,所有需要先配置好代理池,代理词github地址:https://github.com/germey/proxypool ,安装方法参考里面的说明就行,此外需要安装好mongodb数据库和pymongo库,开发使用的是pycharm。
一,准备工作
首先新建一个项目名为weixinspider,在项目下面新建weinxin.py文件,然后打开搜狗微信页面,输入python,打开第一页,按f12查看页面结构:

在这里插入图片描述
可以看到请求的方式是get方法,请求的url是带参数的,把页面向下拉可以看到具体的参数信息,可以在爬虫中构造这些参数
在这里插入图片描述

构造的paramdata参数如下:

paramdata={
    'type': '2',
    'query': 'python',
    'ie': 'utf8',
    's_from': 'input',
    '_sug_&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值