根据关键字百度自动爬取n页图片

之前本来是做过这方面的代码,但是不知道弄哪儿去了,百度了一下这次重新记录下来

import requests
import os
#爬取第一页
url='https://image.baidu.com/search/acjson?' 
headers={#360安全浏览器,百度需要使用cookie
        'Cookie':'.......',
        'Referer': 'https://image.baidu.com/search/index?tn=baiduimage&fm=result&ie=utf-8&word=%E5%B0%8F%E7%8B%97', # 搜索小狗的链接
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
        }

key='tn=resultjson_com&logid=10902883729278332902&ipn=rj&ct=201326592&is=&fp=result &queryWord={}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=&hd=&latest=&copyright=&word={}&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&force=&pn={}&rn={}&gsm=1e&1615729530798='
word='小狗' # 这里的关键字进行更改
pn=eval('30')  # 这里输入要爬取的页数,30页,也就是30*30九百张图片
imurls=[]
for i in range(1,pn+1):
    url=(url+key).format(word,word,i*30,30)
    r=requests.get(url,headers=headers)
    #"thumbURL":"http://..."图片地址
    imurl=r.json().get('data')
    for im in imurl:
        if im:
            imurls.append(im.get('thumbURL'))
print(len(imurls))
i=1
for iurl in imurls:
    if iurl:
        print('正在下载第{}张图片...'.format(i))
        ir=requests.get(iurl,headers=headers)
        fpath=os.getcwd()+'/dog/'  #在当前路径下建立dog文件夹
        if not os.path.exists(fpath):
            os.mkdir(fpath)  #创建文件夹
        with open(fpath+str(i)+'.png',mode='wb') as f:
             f.write(ir.content)
        i+=1

下面这段代码虽然滚动了30页,但是还是只会获取第一个请求链接,所以只有30条数据。

from selenium import webdriver
from selenium.webdriver.common.keys import Keys
import time
import re
import requests
import os

# 设置ChromeDriver的路径
driver_path = "D:\software_office\chromedriver_win32\chromedriver.exe" # which chromedriver

# 创建一个Chrome浏览器实例
driver = webdriver.Chrome(driver_path)

# 访问百度图片搜索结果页面
url = 'https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1683774515614_R&pv=&ic=&nc=1&z=&hd=&latest=&copyright=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&dyTabStr=MCw0LDEsNiw1LDMsNyw4LDIsOQ%3D%3D&ie=utf-8&sid=&word=%E5%8E%8C%E6%81%B6%E7%9A%84%E7%9C%9F%E4%BA%BA%E8%A1%A8%E6%83%85'
driver.get(url)

# 滚动页面
for _ in range(10):  # 滚动10次,你可以根据需要调整这个值
    driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
    time.sleep(1)  # 等待页面加载

# 获取页面源代码
html = driver.page_source

# 解析页面源代码,获取图片链接
res = re.findall('"objURL":"(.*?)"', html)
print('-------------',len(res))

# 保存图片
num = 0
pachong_picture_path = './disguestm'
if not os.path.exists(pachong_picture_path):
    os.mkdir(pachong_picture_path)

for i in res:
    num = num + 1
    try:
        picture = requests.get(i)
        file_name = os.path.join(pachong_picture_path, 'dis' + str(num) + ".png")
        with open(file_name, "wb") as f:
            f.write(picture.content)
    except:
        print('Failed to download image: {}'.format(i))

driver.quit()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
下面是一个使用Python编写的示例代码,可以根据关键字从百度图片搜索中图片: ```python import requests import os def download_images(keyword, num_images): url = 'http://image.baidu.com/search/flip' params = { 'tn': 'baiduimage', 'word': keyword, 'pn': 0, 'rn': 30, 'gsm': '3c', } headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Referer': 'http://image.baidu.com', } try: os.makedirs(keyword) except OSError as e: if e.errno != 17: raise for i in range(0, num_images, 30): params['pn'] = i resp = requests.get(url, params=params, headers=headers) resp.raise_for_status() data = resp.json() for j, img in enumerate(data['data']): try: img_url = img['objURL'] img_resp = requests.get(img_url, timeout=10) img_resp.raise_for_status() with open(os.path.join(keyword, f'{i + j}.jpg'), 'wb') as f: f.write(img_resp.content) print(f'Successfully downloaded {i + j}.jpg') except Exception as e: print(f'Error occurred while downloading {i + j}.jpg: {str(e)}') if __name__ == '__main__': keyword = input('Enter keyword: ') num_images = int(input('Enter number of images to download: ')) download_images(keyword, num_images) ``` 请注意,此代码使用了requests库来发送HTTP请求,因此您需要确保已安装该库。此外,代码中使用了os和json库来处理文件和JSON数据。在运行代码之前,请确保您已安装这些库。 使用此代码,您可以输入要搜索的关键字和要下载的图像数量,然后它将从百度图片搜索中图像并保存到以关键字命名的文件夹中。请注意,图片可能会涉及到版权问题,请确保遵守相关法律法规。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

lanmy_dl

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值