python爬虫案例_Python 爬虫案例爬取图片源代码奉上

"""#导入第三方的一个http的请求库导入方法pip install requests#import requests导入Python的标准库 其自带import re思路定义一个函数,目的获取每张图片的地址1.先找到目标网址2、用正则来匹配不同图片的地址,产生匹配结果3、通过源代码与匹配之后的结果来找到图片的地址"""import requestsdef get_urls():#第一步(加入目标网址)找到网页,ctrl+U 打开网页源代码 # 右键查看照片地址--- 并在Network 查看Request Method 项
response = requests.get('https://qq.yh31.com/zjbq/2920180.html')#第二步网页源代码每张图片共有的内容保留(ctrl+F查找) Elements 中查找 :p style =的内容拷贝 #出现不同内容alt=""改为.*(匹配任意数量不换行的字符)?(匹配竟可能短的字符非贪婪匹配) #(.*?)含义匹配加保留
url_add = r'<img border="0" .*? src="(.*?)"'#第三步 查找图片
url_list = re.findall(url_add,response.text)#print(url_list)return url_listdef get_gif(url,name):
response = requests.get(url)#response.text是网页源代码,response.content 二进制with open('E:data%d.gif'%nanme,'wb') as ft:#下载到的文件夹E: %是占位符
ft.write(response.content)if __name__ == '__main__':
url_list == get_urls()#得到列表数据然后进行字符串的拼接 #定义变量 给图片命名
a = 1for url in url_list:#for 便利
com_url = 'https://qq.yh31.com' + url#加网页主要网址
get_gif(com_url,a)#传递下载函数
a += 1#图片命名循环
print(com_url)#回到24行定义下载函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值