分享原创python爬取微信公众号,并分享GITHUB地址

爬取搜狗微信保存mysql
创建人:紫气东来
因为工作中用到抓取微信与内外部网站进行同步,所以编写了此程序。
程序思路:用selenium模拟手机登陆,下载对应HTML,再用BeautifulSoup解析html,存放mysql
程序构建在py3.x基础上,可以优化为爬虫程序。



代码地址:https://github.com/xocom/readwx

一:使用说明
1:程序使用了selenium,所以必须先安装chrome浏览器对应插件。
  插件下载地址:https://sites.google.com/a/chromium.org/chromedriver/downloads
  下载对应版本的EXE文件后,拷贝到chrome浏览器的目录,比如:C:\Program Files (x86)\Google\Chrome\Application
  V56-V57版本的chrome可以直接用plugin下的chromedriver

2:建立表结构之后,修改运行test.py,数据会抓取到对应表。



  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

紫气东来_999

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值