爬爬看:爬取GitHub项目Zip文件,并保存解压.

前言

最近在学习崔庆才大佬的网络爬虫课程,难免要用到他GitHub上课源代码.但项目很多,一个个下载这种事情,显得很愚蠢.我作为一个程序员,宁愿用一天来写一个代码,也不要用十分钟来手动下载(`へ´*)ノ.

目标站点分析

这次我们要下载的zip文件链接是这样的:
在这里插入图片描述
我们只要爬取关键词"DouYin"就能构造一个zip链接.
修改"page"参数就能修改爬取页面:
在这里插入图片描述

HTML下载器

HTML下载器用到了requests库的get方法,这里没啥好介绍的,直接附上代码:

def getHTML(offset):
    url = 'https://github.com/Python3WebSpider?page=' + str(offset)
    r = requests.get(url)
    try:
        if r.status_code == 200:
            return (r.text)
    except:
        print('链接失败!')

HTML解析器

这里用到两种方法,正则表达式和BeautifulSoup解析器.
在这里插入图片描述
我们要爬取的对象是"h3"标签的子标签—“a"的string属性"DouYin”.
方法一:

def parsePage1(html,urllist,namelist):
    pattern = re.compile('<h3>.*?<a href=.*?itemprop="name codeRepository">(.*?)</a>.*?</h3>', re.S)
    items = re.findall(pattern, html)
    for item in items:
        zipurl = 'https://github.com/Python3WebSpider/' + item[9:] + '/archive/master.zip'
        urllist.append(zipurl)
        namelist.append(item[9:])

方法二:

def parsePage2(html, urllist, namelist):
    soup = BeautifulSoup(html, 'html.parser')
    data = soup.find_all('h3')
    for item in data:
        a = item('a')
        for item in a:
            print(item.string)
  
  • 2
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值