Python爬虫获取图片并下载保存至本地的实例

今天小编就为大家分享一篇Python爬虫获取图片并下载保存在本地的实例,具有很好的参考价值,希望对大家有所帮助。一起来看看吧!

1.抓取煎蛋网上的图片

2.代码如下

* * *

import urllib.request

import os


def url_open(url):

 req=urllib.request.Request(url)

 req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.3; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0')

 response=urllib.request.urlopen(url)

 html=response.read()

 return html

#
to get the num of page like 1,2,3,4...

def get_page(url):

 html=url_open(url).decode('utf-8')

 a=html.find('current-comment-page')+23 #add the 23 offset th arrive at the [2356]

 b=html.find(']',a)

 print(html[a:b])

 return html[a:b]

find the url of imgs and return the url of arr

def find_imgs(url):

 html=url_open(url).decode('utf-8')

 img_addrs=[]

 a=html.find('img src=')

 while a!=-1:

  b=html.find('.jpg',a,a+255) # if false : return -1

  if b!=-1:

   img_addrs.append('http:'+html[a+9:b+4])

  else:

   b=a+9

  a=html.find('img src=',b)

print(img_addrs) 

 return img_addrs

 print('http:'+each)

save the imgs

def save_imgs(folder,img_addrs):

 for each in img_addrs:

  filename=each.split('/')[-1] #get the last member of arr,that is the name

  with open(filename,'wb') as f:

   img = url_open(each)

   f.write(img)

def download_mm(folder='mm',pages=10):

 os.mkdir(folder)

 os.chdir(folder)

 url='http://jandan.net/ooxx/'

 page_num=int(get_page(url))

 for i in range(pages):

  page_num -= i

  page_url = url + 'page-' + str(page_num) + '#comments'

  img_addrs=find_imgs(page_url)

  save_imgs(folder,img_addrs)

if __name__ == '__main__':

 download_mm()

* * *
复制代码

以上这篇Python爬虫获取图片并下载保存至本地的实例就是小编分享给大家的全部内容了,希望给大家一个参考,也希望大家多多支持小编!

那这边有需要Python中文软件,各种书籍、视频的小伙伴!可以加QQ群:838197940!进群备注“Python资料”既可免费获取!

转载于:https://juejin.im/post/5b685f67e51d45169c1cd0bb

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值