requests库简单爬取百度图片

代码块


import re
import requests

# 创建一个浏览器,并且实例化Session
session = requests.Session()

# 传入请求头,防止被封,403
session.headers.update({'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'})

# url
url = 'http://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gb18030&word=%CD%BC%C6%AC&fr=ala&ala=1&alatpl=others&pos=0'
res = session.get(url=url)

# 拿到的html数据
html = res.text

# 提取图片url,这里根据re模块匹配,
img_urls = re.findall(r'"thumbURL":"(.*?)"',html)


# 下载保存数据
for index,img_url in enumerate(img_urls):               # 通过高阶内置函数enumerate()枚举
    session.headers.update({'Referer':'%s'%url})        # 发现获取图片的url时,打开显示403拒绝访问,所以需要加Referer请求头
    img_res = session.get(img_url)
    with open('%s.jpg'%index,'wb') as f:                # 打开文件
        f.write(img_res.content)                        # 这里写入content二进制数据
    print(img_url)

这里说明这一行代码

img_urls = re.findall(r'"thumbURL":"(.*?)"',html)
通过re模块进行匹配图片url,通过检查网页元素以及查看网页源代码,发现,这些图片都有的共同属性,就是"thumbURL",通过它就可以锁定到我们需要的图片地址

元素检查
在这里插入图片描述
源网页查找
在这里插入图片描述
运行结果
在这里插入图片描述
我们发现,在当前文件夹位置下面,下载了我们需要的图片,随即打开一张

在这里插入图片描述

这里打开会发现,图片不是很大,这是因为我们没有进行图片格式的过滤,而是直接进行了匹配,不过就几行代码而已,可以自己摸索便是!!
  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以使用Python中的requests和BeautifulSoup爬取百度图片。以下是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup import os # 搜索关键词 keyword = "猫" # 创建文件夹用于存放图片 if not os.path.exists(keyword): os.mkdir(keyword) # 请求百度图片搜索结果页面 url = "https://image.baidu.com/search/index?tn=baiduimage&word=" + keyword response = requests.get(url) # 解析页面内容,获取图片链接 soup = BeautifulSoup(response.content, "html.parser") img_tags = soup.find_all("img") # 下载图片 for i, img_tag in enumerate(img_tags): img_url = img_tag.attrs.get("src") if img_url and "http" in img_url: img_name = keyword + "_" + str(i) + ".jpg" img_path = os.path.join(keyword, img_name) with open(img_path, "wb") as f: f.write(requests.get(img_url).content) ``` 运行代码后,会在当前目录下创建一个名为`猫`的文件夹,并将搜索结果中的图片下载到该文件夹中。你可以将`keyword`变量改为其他关键词进行搜索。注意,爬取百度图片需要遵守百度的相关规定和法律法规,不要用于商业用途。 ### 回答2: 要用Python爬取百度图片,我们可以使用requests发送HTTP请求,并使用BeautifulSoup解析HTML页面。以下是一个简单的示例: 1. 导入所需的: ```python import requests from bs4 import BeautifulSoup ``` 2. 定义一个函数来获取百度图片的URL: ```python def get_image_urls(keyword, num_images): url = f'https://image.baidu.com/search/flip?tn=baiduimage&word={keyword}&pn=0&tn=pc' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') img_tags = soup.find_all('img') image_urls = [] for img in img_tags: if len(image_urls) == num_images: break image_urls.append(img['src']) return image_urls ``` 该函数接受两个参数:要搜索的关键词和要获取的图片数量。它首先构建了百度图片搜索的URL,然后发送GET请求并解析响应的HTML页面。接下来,它找到所有的<img>标签,并提取它们的src属性,将图片的URL添加到image_urls列表中,直到达到所需的图片数量。 3. 调用函数并下载图片: ```python def download_images(image_urls): for i, url in enumerate(image_urls): response = requests.get(url) with open(f'image_{i}.jpg', 'wb') as file: file.write(response.content) ``` 该函数接受一个包含图片URL的列表,并使用requests下载每个图片。每个图片以'image_序号.jpg'的格式保存在本地。 4. 在主程序中使用上述函数: ```python if __name__ == '__main__': keyword = '猫' num_images = 10 image_urls = get_image_urls(keyword, num_images) download_images(image_urls) ``` 在主程序中,我们指定了要搜索的关键词和要获取的图片数量,并调用get_image_urls函数获取百度图片的URL。然后,我们将URL列表传递给download_images函数,下载并保存图片。 以上就是使用Python爬取百度图片的基本过程。请注意,爬取网站内容要遵守相关网站的使用条款和法律法规。 ### 回答3: Python爬取百度图片可以使用第三方requests和BeautifulSoup来实现。 首先,我们需要导入需要的requests和BeautifulSoup。 ```python import requests from bs4 import BeautifulSoup ``` 然后,我们可以定义一个函数来获取百度图片的链接: ```python def get_image_urls(keyword): # 设置搜索关键字 search_url = "https://image.baidu.com/search/index?tn=baiduimage&word=" + keyword # 发送GET请求 response = requests.get(search_url) # 使用BeautifulSoup解析获取到的html页面 soup = BeautifulSoup(response.text, 'html.parser') # 获取所有的img标签 img_tags = soup.find_all('img') # 提取每个img标签中的src属性,即图片链接,并将其添加到一个列表中 image_urls = [] for img in img_tags: image_urls.append(img['src']) return image_urls ``` 接下来,我们可以定义一个函数来下载百度图片: ```python def download_images(keyword, num_images): # 获取图片链接 image_urls = get_image_urls(keyword) # 创建一个用于保存图片的文件夹 folder_path = "./images/" if not os.path.exists(folder_path): os.makedirs(folder_path) # 下载并保存图片 counter = 1 for url in image_urls: if counter > num_images: break try: response = requests.get(url) with open(folder_path + keyword + str(counter) + ".jpg", 'wb') as f: f.write(response.content) print("成功下载第" + str(counter) + "张图片") counter += 1 except: print("下载第" + str(counter) + "张图片失败") ``` 最后,我们可以调用download_images函数来下载指定数量的图片: ```python keyword = "猫" num_images = 10 download_images(keyword, num_images) ``` 以上就是使用Python爬取百度图片简单示例。你可以根据自己的需求修改关键字和下载图片的数量。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值