在做花卉数据增量的时候,对102flowers进行数据增量处理,在百度上直接截取图片的话,效率太低,在这里使用python网络爬虫,仅需要输入特定的图片名称,便可以直接获取大量相关图片,本例以获取rose为例进行爬取。参考之前博主的代码,稍微进行修改即可。
直接代码
import requests
import os
def getManyPages(keyword,pages):
params=[]
for i in range(30,30*pages+30,30):
params.append({
'tn': 'resultjson_com',
'ipn': 'rj',
'ct': 201326592,
'is': '',
'fp': 'result',
'queryWord': keyword,
'cl': 2,
'lm': -1,
'ie': 'utf-8',
'oe': 'utf-8',
'adpicid': '',
'st': -1,
'z': '',
'ic': 0,
'word': keyword,
's': '',
'se': '',
'tab': '',
'width': '',
'height': '',
'face': 0,
'istype': 2,
'qc': '',
'nc': 1,
'fr': '',
'pn': i,
'rn': 30,
'gsm': '1e',
'1488942260214': ''
})
url = 'https://image.baidu.com/search/acjson'
urls = []
for i in params:
urls.append(requests.get(url,params=i).json().get('data'))
return urls
def getImg(dataList, localPath):
if not os.path.exists(localPath): # 新建文件夹
os.mkdir(localPath)
x = 0
for list in dataList:
for i in list:
if i.get('thumbURL') != None:
print('正在下载中:%s' % i.get('thumbURL'))
ir = requests.get(i.get('thumbURL'))
open(localPath + '%d.jpg' % x, 'wb').write(ir.content)
x += 1
else:
print('该图片链接不存在')
if __name__ == '__main__':
dataList = getManyPages('单个玫瑰花',100) # 参数1:关键字,参数2:要下载的页数
getImg(dataList,'E:/data/flowers/29flowers images/rose') # 参数2:指定保存的路径
运行完成之后,打开相应文件夹
对不符合要求的数据进行剔除,便可得到所需要的数据。