python循环抓取多张图片

python循环抓取多张图片

测试抓取 国家地理中文网的小动物们

网址 http://www.ngchina.com.cn/animals/
在这里插入图片描述

# -*- coding: utf-8 -*-
from bs4 import BeautifulSoup
import requests
import os
html=requests.get('http://www.ngchina.com.cn/animals/').text
# html=html.decode('utf8')
# print(html.encoding)
# print(html.decode("UTF-8"))
soup=BeautifulSoup(html,features="html.parser")
img_ul=soup.find_all('ul',{'class':'img_list'})
os.makedirs('../img',exist_ok=True)

for ul in img_ul:
    imgs=ul.find_all('img')
    for img in imgs:
        url=img['src']
        r=requests.get(url)
        image_name=url.split('/')[-1]
        with open('../img/%s'%image_name,'wb') as f:
            f.write(r.content)
        print("saved %s"%image_name)
结果目录

在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Python可以使用requests和beautifulsoup4库来抓取图片。具体步骤如下: 1. 使用requests库向目标网站发送请求,获取网页源代码。 2. 使用beautifulsoup4库解析网页源代码,获取图片的URL地址。 3. 使用requests库再次向获取到的图片URL地址发送请求,获取图片的二进制数据。 4. 将获取到的图片数据保存到本地文件中。 以下是示例代码: ```python import requests from bs4 import BeautifulSoup # 发送请求获取网页源代码 url = 'https://www.example.com' response = requests.get(url) html = response.text # 使用beautifulsoup4解析网页源代码,获取图片的URL地址 soup = BeautifulSoup(html, 'html.parser') img_tags = soup.find_all('img') img_urls = [tag['src'] for tag in img_tags] # 使用requests库获取图片数据并保存到本地文件中 for url in img_urls: response = requests.get(url) with open('image.jpg', 'wb') as f: f.write(response.content) ``` 请注意,上述代码仅适用于非商业用途和合法的数据采集。在进行任何形式的数据采集前,请确保您已经获得了相应网站的许可或遵循相关法律法规。 ### 回答2: Python可以使用多个库来抓取图片,最常用的是requests和BeautifulSoup库。下面是一个使用这两个库的简单示例: 首先,需要导入所需的库: ``` import requests from bs4 import BeautifulSoup ``` 接下来,我们可以使用requests库来获取网页的内容。例如,我们可以使用以下代码获取一个网页: ``` url = 'http://example.com' response = requests.get(url) ``` 然后,我们可以使用BeautifulSoup库来解析网页的内容,找到其中的图片标签。例如,我们可以使用以下代码获取所有的img标签: ``` soup = BeautifulSoup(response.content, 'html.parser') img_tags = soup.find_all('img') ``` 接下来,我们可以通过循环遍历所有的img标签,并使用requests库下载图片到本地。例如,我们可以使用以下代码来完成此操作: ``` for img in img_tags: img_url = img['src'] img_response = requests.get(img_url) with open('image.png', 'wb') as f: f.write(img_response.content) ``` 上述代码将会将网页中的所有图片下载保存到本地的image.png文件中。如果想要下载多个图片,可以修改保存文件名,例如使用img['alt']作为文件名。 以上就是一个简单的Python抓取图片的示例。需要注意的是,具体的实现方式可能因网页结构而异,需要根据实际情况进行调整。 ### 回答3: 用Python抓取图片可以使用第三方库requests和BeautifulSoup,下面是具体的步骤: 1. 首先,你需要安装requests和beautifulsoup4库。你可以在命令行中使用以下命令来安装它们: ``` pip install requests pip install beautifulsoup4 ``` 2. 导入所需的库: ```python import requests from bs4 import BeautifulSoup ``` 3. 使用requests发送HTTP请求来获取网页的内容: ```python url = '网页的URL' response = requests.get(url) ``` 4. 创建BeautifulSoup对象,并解析网页内容: ```python soup = BeautifulSoup(response.text, 'html.parser') ``` 5. 通过分析网页的HTML结构,找到图片所在的标签和属性。你可以使用开发者工具来帮助你查找这些信息。 6. 使用find_all()方法找到所有的图片标签,并遍历它们: ```python for img_tag in soup.find_all('img'): # 获取图片的URL img_url = img_tag['src'] # 发送请求下载图片 img_data = requests.get(img_url).content # 保存图片到本地文件 with open('图片的文件名.jpg', 'wb') as f: f.write(img_data) ``` 7. 完整的代码如下所示: ```python import requests from bs4 import BeautifulSoup url = '网页的URL' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') for img_tag in soup.find_all('img'): img_url = img_tag['src'] img_data = requests.get(img_url).content with open('图片的文件名.jpg', 'wb') as f: f.write(img_data) ``` 注意:在实际使用中,你可能需要处理一些异常情况,比如网页不存在或图片链接无效等。另外,你也可以通过其他方式来处理和保存图片,这只是其中一种常见的方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值