python爬取多页网页的range_Python爬取煎蛋网图片

.请求网页函数

def get_url(url):

html = requests.get(url, headers=header).content.decode('utf-8')

return html

以get方式请求,加入headers参数传递头信息;抓取其二进制码并以“utf-8”形式编码,并返回;

.解析网页,提取图片链接

def parsel_url(html):

etree_html=etree.HTML(html)

img_urls=etree_html.xpath("//div[@class='row']/div[@class='text']/p/img/@src")

return img_urls

利用xpath语法提取图片链接

.下载图片并保存

循环下载;下载4页,range左闭右开

for i in range(5):

输入网址,找到网址规律

url = '

请求网页

html=get_url(url)

解析网页,提取图片链接

img_urls = parsel_url(html)

for img_url in img_urls:

因为提取的网页链接不是网址标准形式,需要完善

response = requests.get('http:' + img_url, headers=header).content

图片以二进制形式保存

with open("F://picture3//" + str(name) + '.jpg', 'wb') as f:

f.write(response)

下载提示

print('正在下载第{}张'.format(name))

name += 1

利用name变量提示下载图片数量

完整代码

import requests

from lxml import etree

用户代理

header={

'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'

}

用name表示下载的名字

name=1

请求网页函数

def get_url(url):

html = requests.get(url, headers=header).content.decode('utf-8')

return html

解析网页

def parsel_url(html):

etree_html=etree.HTML(html)

img_urls=etree_html.xpath("//div[@class='row']/div[@class='text']/p/img/@src")

return img_urls

循环下载;下载4页,range左闭右开

for i in range(5):

输入网址,找到网址规律

url =

请求网页

html=get_url(url)

解析网页,提取图片链接

img_urls = parsel_url(html)

for img_url in img_urls:

response = requests.get('http:' + img_url, headers=header).content

图片以二进制形式保存

with open("F://picture3//" + str(name) + '.jpg', 'wb') as f:

f.write(response)

下载提示

print('正在下载第{}张'.format(name))

name += 1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值