python下载百度图片_python-下载百度图片到本地

import requests

import os

def getManyPages(keyword,pages):

params=[]

for i in range(30,30*pages+30,30):

params.append({

'tn': 'resultjson_com',

'ipn': 'rj',

'ct': 201326592,

'is': '',

'fp': 'result',

'queryWord': keyword,

'cl': 2,

'lm': -1,

'ie': 'utf-8',

'oe': 'utf-8',

'adpicid': '',

'st': -1,

'z': '',

'ic': 0,

'word': keyword,

's': '',

'se': '',

'tab': '',

'width': '',

'height': '',

'face': 0,

'istype': 2,

'qc': '',

'nc': 1,

'fr': '',

'pn': i,

'rn': 30,

'gsm': '1e',

'1488942260214': ''

})

url = 'https://image.baidu.com/search/acjson'

urls = []

for i in params:

urls.append(requests.get(url,params=i).json().get('data'))

return urls

def getImg(dataList, localPath):

if not os.path.exists(localPath): # 新建文件夹

os.mkdir(localPath)

x = 0

for list in dataList:

for i in list:

if i.get('thumbURL') != None:

print('正在下载:%s' % i.get('thumbURL'))

ir = requests.get(i.get('thumbURL'))

open(localPath + '%d.jpg' % x, 'wb').write(ir.content)

x += 1

else:

print('图片链接不存在')

if __name__ == '__main__':

dataList = getManyPages('插画',10) # 参数1:关键字,参数2:要下载的页数

getImg(dataList,'C:\\Users\\0\\Pictures\\插画\\photos\\') # 参数2:指定保存的路径

报错:

Python ImportError: No module named 'requests'解决方法

缺少requests库

解决方法:由于我安装的python的时候,也选择安装了pip,所以这里只分享自己实践过的方式。我的python安装的目录是D:/Python

①cmd

②cd C:\Users\0\AppData\Local\Programs\Python\Python36

③pip install requests

等待系统自动加载安装。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可以使用Python中的requests和BeautifulSoup库来批量下载百度图片。 首先需要获取百度图片搜索结果页面的HTML代码,可以使用requests库来实现: ```python import requests url = 'https://image.baidu.com/search/index?tn=baiduimage&word=cat' response = requests.get(url) html = response.text ``` 其中,`url`为百度图片搜索结果页面的URL,`response`为获取的响应对象,`html`为响应对象中的HTML代码。 接下来,需要使用BeautifulSoup库来解析HTML代码,提取出每张图片的URL,并使用requests库来下载图片: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') img_tags = soup.find_all('img') for i, img_tag in enumerate(img_tags): img_url = img_tag['src'] img_data = requests.get(img_url).content with open(f"cat_{i}.jpg", "wb") as f: f.write(img_data) ``` 其中,`soup`为解析后的HTML对象,使用`find_all`方法找到所有的`img`标签。然后遍历每个`img`标签,取出`src`属性作为图片的URL,使用requests库下载图片,并保存到本地。这里使用了`enumerate`函数来给每个图片命名,以防止同名文件被覆盖。 完整代码如下: ```python import requests from bs4 import BeautifulSoup url = 'https://image.baidu.com/search/index?tn=baiduimage&word=cat' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') img_tags = soup.find_all('img') for i, img_tag in enumerate(img_tags): img_url = img_tag['src'] img_data = requests.get(img_url).content with open(f"cat_{i}.jpg", "wb") as f: f.write(img_data) ``` 注意:这种方式下载图片可能会有重复或者不相关的图片,而且可能存在版权问题,请尊重他人的版权。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值