python---爬取表情包

这篇博客讲述了如何使用Python爬虫从斗图网站上批量下载表情包。首先分析URL,发现是GET请求,通过右键复制图片链接获取图片URL。使用requests库的urlretrieve函数下载图片,并通过os模块指定保存目录和避免文件名冲突。然后,利用BeautifulSoup解析HTML,找出所有img标签,提取图片URL,遍历并调用下载函数完成批量下载。
摘要由CSDN通过智能技术生成

对斗图网站上表情图片进行爬取
首先打开要爬取的表情包网站 对网站的URL进行分析
在这里插入图片描述
这是一个get请求 问号 后面的page是参数 因此这是第一页的内容

我先对单个图片进行下载 操作
首页获取图片的url 鼠标放在要下载的图片上 右键---------》点击复制图片连接
将图片链接 给一个变量 url来接收 然后 用request库下的urlretrieve函数(要传两个参数 第一个是要解析的url ,第二个是 给下载的文件取一个文件名 )进行解析下载 。这时后点击RUN 这张图片就在当前目录下载好了

from urllib import request
import requests
url = "http://ww3.sinaimg.cn/bmiddle/9150e4e5gy1g4qhetovzsg206j06j3yv.gif"
request.urlretrieve(url,‘index.png’)

我想让这张图片下载的时候可以 指定目录 而且我要一次下载多个文件时 名字也不能重复
首先指定目录就要使用os模块 给图片分配不同的名字 我使用图片URL后面自带的名字 这需要将Url的字符串进行分割
我首先将url的字符进行分割处理
使用split函数以 / 进行字符串的分割 分割以后 使用pop函数 将数组中最后一位取出来 如下:

>>> url = "http://ww3.sinaimg.cn/bmiddle/9150e4e5gy1g4qhetovzsg206j06j3yv.gif"
>>> split_list = url.split('/')
>>> print(split_list)
['
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值