爬虫-学习爬取表情包

要爬取的内容:

具体的代码:

# encoding: utf-8
"""
@version: 0.1
@author: 
@site: 
@software: PyCharm
@file: emoticonDemo.py
@time: 2020-05-29 9:17
"""
import requests
import re

# 表情包地址
# https://qq.yh31.com/zjbq/2920180.html
# 表情图片地址
# https://qq.yh31.com/tp/Photo7/ZJBQ/20101/201001211740218681.gif

# 第一步,找到所要爬取图片的地址
"""
1.请求目标网站
2.匹配不同图片地址(url)
3.找到所要爬取图片的地址
"""

def get_urls(url):
    # 1.请求目标网站
    response = requests.get(url)

    # 2.通过正则来匹配不同图片地址(url)
    """
    # 每张图片共有内容保留,不同的内容用.*?来匹配
    # .*:表示匹配任意数量不换行的字符
    # ?:表示尽可能匹配最短的字符
    r'<img border="0" alt="" src="/tp/Photo7/ZJBQ/20099/200909291701134159.gif">'
    """

    url_add = r'img.*? src="(.*?)"'
    # url_add = r'img border="0".?* src="(.*?)"'
    # print(url_add)
    # 3.找到所要爬取图片的地址
    url_list = re.findall(url_add, response.text)
    # print(url_list)
    return url_list

# 第二步,根据凭借完整的地址,下载图片数据
def get_gif(url, name):
    # 1.请求要爬取图片的url
    response = requests.get(url)

    # 2.下载数据,保存到路径下 E:\02_python3.5\workspace\pypc\pc_demo\
    with open('E:\\02_python3.5\\workspace\\pypc\\pc_demo\\gif_dir\{}'.format(name), 'wb') as ft:
        ft.write(response.content)



if __name__ == '__main__':

    url = 'https://qq.yh31.com/zjbq/2920180.html'
    url_list = get_urls(url)

    # 把列表当中的数据提取,并拼接成完整的图片url地址
    for url in url_list:
        # print(url)
        gif_name = url[int(url.rfind('/')) + 1:]
        # print(url[int(url.rfind('/')) + 1:])
        # print(gif_name)
        com_url = 'https://qq.yh31.com' + url
        print(com_url)
        #调用下载图片函数
        get_gif(com_url, gif_name)

爬取结果:

 

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值