Python3-爬虫-03-爬取豆瓣首页图片

'''
批量下载豆瓣首页图片
采用伪装浏览器的方式爬取豆瓣网站首页的图片,保存到指定路径下
'''
#导入需要的库
import urllib.request,socket,re,sys,os
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
#定义文件保存路径
targetPath = "//Users//wangleilei//Documents//03__douban_Images"

#保存图片的函数
def saveFile(path):
    #检测当前路径的有效性
    if not os.path.isdir(targetPath):
        os.mkdir(targetPath)
    #设置每个图片的路径

    pos = path.rindex('/')
    t = os.path.join(targetPath,path[pos+1:])
    return t

    # 定义保存函数
# def saveFile(data):
#         # 路径替换成你自己的
#         path = "//Users//wangleilei//Documents//05_douban.html"
#         f = open(path, 'wb')
#         f.write(data)
#         f.close()
# 网址

url = "https://www.douban.com/"

headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.12; rv:57.0) Gecko/20100101 Firefox/57.0'}

request = urllib.request.Request(url=url,headers=headers)

response = urllib.request.urlopen(request)

data = response.read()
# saveFile(data)
print(data)#https:[^\s]*?(png|gif|jpg)
for link, t in set(re.findall(r'(https:[^\s]*?(png|gif|jpg))', str(data))):

    print(link)
    try:
        urllib.request.urlretrieve(link, saveFile(link))
        print('成功')
    except:
        print('失败')

复制代码

我的Python3爬虫系列 原文参照Python3 爬虫系列教程

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值