Python 爬虫爬取指定微信公众号文章

该方法是依赖于urllib2库来完成的,首先你需要安装好你的python环境,然后安装urllib2库

程序的起始方法(返回值是公众号文章列表):

def openUrl():
    print("启动爬虫,打开搜狗搜索微信界面")
    # 加载页面
    url = 'http://weixin.sogou.com/weixin?type=1&s_from=input&query=要爬取的公众号名称'
    htmlContentObj = urllib2.urlopen(url)
    # 将页面转化为文本
    html = htmlContentObj.read()
    # 正则匹配
    str = re.findall(r"http://mp.weixin.qq.com/profile.+==",html)
    # 替换转义符得到可访问的链接地址
    tempHref = re.sub(r"&","&",str[0])
    return tempHref

根据获取到的文章列表的页的链接地址(注意是文章列表页面的得链接地址,不是文章的地址)将页面读取为文本

# 获取页面文本方法
def getHtmlStr(conurl):
    # 相当于把页面转化为文本
    response = urllib2.urlopen(conurl)
    # 读取文本的字符串
    htmlStr = response.read()
    return htmlStr

对读取为文本的页面进行分析并利用正则匹配获得公众号里面文章的标题,链接地址等内容得json对象

# 文本转换为所需要的json对象
def htmlToJsonObj(htmlStr):
    # 正则匹配并得到需要的json字符串
    jsonObjstr = re.findall(r"{\"list\":\[.+\]\}", htmlStr)
    # 字符串转json
    jsonObj = json.loads(jsonObjstr[len(jsonObjstr)-1])
    return jsonObj

然后从json对象中取出title,拼接url等(我这里只是获取了链接地址和标题),将两个内容分别存在两个数组,以json对象的方式返回出去(注意拼接url的时候要替换掉转义符(&))

# 从json对象中取出所需要的url
def jsonObjToArray(jsonObj):
    hrefs = []
    titles = []
    # url中的&在html中是& ,故需要替换,下面为正则
    patten = re.compile(r"&")
    # 数组
    arr = jsonObj["list"]
    # 循环添加
    for i in range(len(arr)):
        # 每次替换字符串
        fixHref = re.sub(patten,"&",arr[i]["app_msg_ext_info"]["content_url"])
        # 添加到数组
        titles.append(arr[i]["app_msg_ext_info"]["title"])
        hrefs.append("https://mp.weixin.qq.com"+fixHref)
    jsons = {"hrefs":hrefs,"titles":titles}
    return jsons
#打开浏览器,进行工作
def start():
    tempHref = openUrl()
    # 获取页面文本
    htmlStr = getHtmlStr(tempHref)
    # 文本转json对象
    jsonObj = htmlToJsonObj(htmlStr)
    # f返回所需要的url数组
    return jsonObjToArray(jsonObj)

最后通过启动程序的方法启动爬虫并打印爬取到的信息

if __name__=='__main__': 
    try:
        hrefs = start()
        count = len(hrefs["hrefs"])
        for i in range(count):
            print("标题:"+hrefs["titles"][i].encode("utf-8"))
            print("爬取到的路径:"+hrefs["hrefs"][i].encode("utf-8"))
        print("------------->>爬取并打印完毕")
    except Exception as e:
        print(str(e))

程序需要导入的包

import urllib2
import json
import re

依次赋值以上代码,填写要爬取的公众号,运行即可

  • 0
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值