python3实现爬取百度图库的图片

环境:python3

#!/usr/bin/python
# -*-coding:utf-8-*-
# FileName:spider.py
# Author:Cody
# Date:2018/5/11 22:10

import requests  # http客户端
import re  # 正则表达式模块
import random #随机数


def spiderPic(html, keyword):
    print("正在查找:" + keyword + '对应的图片,正在从百度图库重下载,请稍等。。。  ')
    for addr in re.findall(str('"objURL":"(.*?)"'), html, re.S):
        # print("现在正在爬取的URL地址:" + str(addr)[0:50] + '...')
        print("现在正在爬取的URL地址:" + addr)
        try:
            pics = requests.get(addr, timeout=10)
        except requests.exceptions.ConnectionError:
            print("当前Url请求错误")
            continue
        #假设产生的随机数不重复,在E盘下建img文件夹
        fq = open('E:\\img\\'+str(random.randrange(1000, 2000)) + '.jpg','w+b')
        fq.write(pics.content)
        fq.close()
        print('写入完成')


if __name__ == "__main__":
    word = input("请输入关键词:")
    result = requests.get("https://image.baidu.com/search/index?tn=baiduimage&ipn=r&istype=2&ie=utf-8&word=" + word)
    # print(result.text)
    print("写入完毕")
    spiderPic(result.text, word)
输入:美女

结果:



  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值