python下载图片并保存_下载并保存图片Python2.7

#!/usr/bin/env python

# -*- encoding: utf-8 -*-

import urllib2

import os

def save_img(img_url,file_name,file_path='img'):

#保存图片到磁盘文件夹 file_path中,默认为当前脚本运行目录下的 book\img文件夹

try:

if not os.path.exists(file_path):

print '文件夹',file_path,'不存在,重新建立'

#os.mkdir(file_path)

os.makedirs(file_path)

#获得图片后缀

if 'jpeg' in img_url:

file_suffix = '.jpeg'

elif 'jpg' in img_url:

file_suffix = '.jpg'

elif 'png' in img_url:

file_suffix = '.png'

else:

file_suffix = '.jpeg'

#拼接图片名(包含路径)

filename = '{}{}{}{}'.format(file_path,os.path.sep,file_name,file_suffix)

#下载图片,并保存到文件夹中

response = urllib2.urlopen(img_url)

cat_img = response.read()

with open(filename, 'wb') as f:

f.write(cat_img)

except IOError as e:

print '文件操作失败',e

except Exception as e:

print '错误 :',e

save_img(img_url, file_name)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy是一个用于爬取网站数据和提取结构化数据的Python应用框架,可以轻松实现一个爬虫来抓取网页内容和图片。使用Scrapy制作爬虫一共需要四个步骤:新建项目、明确目标、制作爬虫、存储爬取内容。具体步骤如下: 1. 新建项目:使用命令`scrapy startproject xxx`新建一个新的爬虫项目。 2. 明确目标:在`items.py`文件中明确你想要抓取的目标数据结构。 3. 制作爬虫:在`spiders/xxspider.py`文件中编写代码来实现爬虫的具体逻辑。 4. 存储爬取内容:在`pipelines.py`文件中设计管道来存储爬取的内容。 另外,我还找到了一段Python代码示例,可以用于爬取黑马程序员论坛的大数据技术交流模块的网页内容。代码中使用了`requests`库发送GET请求获取网页内容,然后将内容保存为HTML文件。你可以根据你的需求进行修改和使用。 ```python # 引入requests库 import requests # 根据url发起请求,获取服务器响应文件 # url:待抓取的url def load_page(url): # 这里的请求头header可以是任意一个网站上面的请求头,进入开发者模式就可以找到,推荐使用google浏览器,比较方便查看 # header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.5359.95 Safari/537.36 QIHU 360SE'} # 发送get请求 response = requests.get(url, headers=header) # 返回html源代码 return response.text # 将html文件保存为网页文件 def save_file(html, filename): print('正在保存', filename) with open(filename, 'w', encoding='utf-8') as file: file.write(html) # 调度函数 def heima_fornum(begin_page, end_page): for page in range(begin_page, end_page + 1): # 组合页面完整的url url = f'http://bbs.itheima.com/forum-568-{page}.html' # 上面的url以黑马程序员论坛的大数据技术交流模块为例子 # 文件名称 file_name = '第' + str(page) + '页.html' # 抓取网页数据 html = load_page(url) # 保存网页数据 save_file(html, file_name) # 定义主函数 if __name__ == '__main__': begin_page = int(input('请输入起始页:')) end_page = int(input('请输出结束页:')) heima_fornum(begin_page, end_page) ``` 这段代码可以根据你输入的起始页和结束页抓取黑马程序员论坛的大数据技术交流模块的网页内容,并将每个网页保存为对应的HTML文件。你可以根据需要进行修改和使用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [黑马python2.7的爬虫4-Scrapy框架](https://blog.csdn.net/sinat_23880167/article/details/80643413)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [爬虫爬取黑马程序员论坛的网页数据](https://blog.csdn.net/weixin_66425427/article/details/129898767)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值