python下载百度图片_python 下载百度图片

百度图片是动态加载的,本例只是抓取了网页上的js源码,做的正则匹配

#encoding=utf-8

import urllib, urllib2

import os

import re

url = r'http://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1492068395730_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&word=%E9%B1%BC'

imgPath = r'/home/lhy/PycharmProjects/images/imgs/fish'

imgHtml = urllib2.urlopen(url).read().decode('utf-8')

# test html

# print(imgHtml)

urls = re.findall(r'"objURL":"(.*?)"', imgHtml)

if not os.path.isdir(imgPath):

os.mkdir(imgPath)

index = 1

for url in urls:

print("下载:", url)

# 未能正确获得网页 就进行异常处理

try:

res = urllib2.urlopen(url)

if str(res.status) != '200':

print('未下载成功:', url)

continue

except Exception as e:

print('未下载成功:', url)

filename = os.path.join(imgPath, str(index) + '.jpg')

with open(filename, 'wb') as f:

f.write(res.read())

print('下载完成\n')

index += 1

print("下载结束,一共下载了 %s 张图片" % (index - 1))

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可以使用Python中的requests和BeautifulSoup库来批量下载百度图片。 首先需要获取百度图片搜索结果页面的HTML代码,可以使用requests库来实现: ```python import requests url = 'https://image.baidu.com/search/index?tn=baiduimage&word=cat' response = requests.get(url) html = response.text ``` 其中,`url`为百度图片搜索结果页面的URL,`response`为获取的响应对象,`html`为响应对象中的HTML代码。 接下来,需要使用BeautifulSoup库来解析HTML代码,提取出每张图片的URL,并使用requests库来下载图片: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') img_tags = soup.find_all('img') for i, img_tag in enumerate(img_tags): img_url = img_tag['src'] img_data = requests.get(img_url).content with open(f"cat_{i}.jpg", "wb") as f: f.write(img_data) ``` 其中,`soup`为解析后的HTML对象,使用`find_all`方法找到所有的`img`标签。然后遍历每个`img`标签,取出`src`属性作为图片的URL,使用requests库下载图片,并保存到本地。这里使用了`enumerate`函数来给每个图片命名,以防止同名文件被覆盖。 完整代码如下: ```python import requests from bs4 import BeautifulSoup url = 'https://image.baidu.com/search/index?tn=baiduimage&word=cat' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') img_tags = soup.find_all('img') for i, img_tag in enumerate(img_tags): img_url = img_tag['src'] img_data = requests.get(img_url).content with open(f"cat_{i}.jpg", "wb") as f: f.write(img_data) ``` 注意:这种方式下载图片可能会有重复或者不相关的图片,而且可能存在版权问题,请尊重他人的版权。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值