Python3 根据关键字爬取百度图片

原创 2017年07月18日 11:16:27

介绍

  1. 一个可用好用的百度图片爬取脚本,唯一的不足就是这是单线程的
  2. 运行环境 Python3.6.0
  3. 写该脚本的原因:获取图片
  4. 创作过程有参考

源码

# coding:utf-8
import requests
import os
import re
# import json
import itertools
import urllib
import sys

# 百度图片URL解码
# http://blog.csdn.net/hbuxiaoshe/article/details/44780653
str_table = {
    '_z2C$q': ':',
    '_z&e3B': '.',
    'AzdH3F': '/'
}

char_table = {
    'w': 'a',
    'k': 'b',
    'v': 'c',
    '1': 'd',
    'j': 'e',
    'u': 'f',
    '2': 'g',
    'i': 'h',
    't': 'i',
    '3': 'j',
    'h': 'k',
    's': 'l',
    '4': 'm',
    'g': 'n',
    '5': 'o',
    'r': 'p',
    'q': 'q',
    '6': 'r',
    'f': 's',
    'p': 't',
    '7': 'u',
    'e': 'v',
    'o': 'w',
    '8': '1',
    'd': '2',
    'n': '3',
    '9': '4',
    'c': '5',
    'm': '6',
    '0': '7',
    'b': '8',
    'l': '9',
    'a': '0'
}
char_table = {ord(key): ord(value) for key, value in char_table.items()}

# 解码
def decode(url):
    for key, value in str_table.items():
        url = url.replace(key, value)
    return url.translate(char_table)

# 百度图片下拉
def buildUrls(word):
    word = urllib.parse.quote(word)
    url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"
    urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))
    return urls


re_url = re.compile(r'"objURL":"(.*?)"')

# 获取imgURL
def resolveImgUrl(html):
    imgUrls = [decode(x) for x in re_url.findall(html)]
    return imgUrls

# 下载图片
def downImgs(imgUrl, dirpath, imgName, imgType):
    filename = os.path.join(dirpath, imgName)
    try:
        res = requests.get(imgUrl, timeout=15)
        if str(res.status_code)[0] == '4':
            print(str(res.status_code), ":", imgUrl)
            return False
    except Exception as e:
        print('抛出异常:', imgUrl)
        print(e)
        return False
    with open(filename + '.' + imgType, 'wb') as f:
        f.write(res.content)
    return True

# 创建文件路径
def mkDir(dirName):
    dirpath = os.path.join(sys.path[0], dirName)
    if not os.path.exists(dirpath):
        os.mkdir(dirpath)
    return dirpath


if __name__ == '__main__':
    print("欢迎使用百度图片下载爬虫\n 多个关键字请用空格进行分割\n")
    # print("下载结果保存在脚本目录下的img文件夹中。")
    choosePath = input('请输入你想保存的路径方式\n  1. 默认路径 path = IMGS/ \n  2. 相对路径 path_input/path_input/ \n  3. 绝对路径,比如 D:/IMG/\n')
    if int(choosePath) == 3:
        dirpath = input('请输入您要保存图片的路径\n')
    elif int(choosePath) == 2:
        path = input('请输入您要保存图片的路径\n')
        dirpath = mkDir(path)
    else:
        path = 'IMGS'
        dirpath = mkDir(path)

    print("= = " * 25)
    word = input("请输入你要下载的图片关键词:\n")
    print("= = " * 25)

    chooseImgType = input('请选择你要保存的图片格式\n  0. default: jpg \n  1. jpg\n  2. png\n  3. gif\n  4. 自定义\n')
    chooseImgType = int(chooseImgType)
    if chooseImgType == 4:
        imgType = input('请输入自定义图片类型\n')
    elif chooseImgType == 1:
        imgType = 'jpg'
    elif chooseImgType == 2:
        imgType = 'png'
    elif chooseImgType == 3:
        imgType = 'gif'
    else:
        imgType = 'jpg'
    print("= = " * 25)

    strtag = input("请输入您要下载图片名字,最后格式为 number+' ' +name.%s\n" % imgType)

    print("= = " * 25)
    numIMGS = input('请输入您要下载图片的数量\n')
    numIMGS = int(numIMGS)

    urls = buildUrls(word)
    index = 0
    print("= = " * 25)
    for url in urls:
        print("正在请求:", url)
        html = requests.get(url, timeout=10).content.decode('utf-8')
        imgUrls = resolveImgUrl(html)
        # print(imgUrls)
        if len(imgUrls) == 0:  # 没有图片则结束
            break
        for url in imgUrls:
            if downImgs(url, dirpath, str(index + 1) + ' ' + strtag, imgType):
                index += 1
                print("已下载 %s 张" % index)
                # 双 break 跳出下载循环
            if index == numIMGS:
                break
        if index == numIMGS:
            print('您一共下载了 %s 张图片' % index)
            print('程序正在终止')
            break

运行演示

运行演示一

运行演示二

爬取的图片

参考

版权声明:转载请标明出处:http://blog.csdn.net/fontthrone,也请保留该信息

python3简单爬虫 (爬取各个网站上的图片)

不多说。Python能做出东西。这是对编程初学者的莫大激励了吧。2333333 下面就放码了。 第一个爬虫: import urllib.request import re import os ...

Windows环境下Python中wordcloud的使用——自己踩过的坑 2017.08.08

Python-wordcloud-初次尝试 作为一个Python初学者,作为学习的开始,这次我根据《一件有趣的事:用Python 爬了爬自己的微信朋友》中的方法测试了一遍效果。这里记录下目前用...

Python + worldcloud + jieba 十分钟学会用任意中文文本生成词云

前述本文需要的两个Python类库 jieba:中文分词分词工具 wordcloud:Python下的词云生成工具写作本篇文章用时一个小时半,阅读需要十分钟,读完该文章后你将学会如何将任意中文文本...

python3 多页爬虫爬取百度贴吧帖子所有图片

逛博客,发现了python。说是人工智能开发的主要语言,所以就来了兴趣,打算抽空看看。网上找了教程觉得语法上,相较于.net和java反倒更简单点。基本语法看完,总要弄点东西吧...

Python3 爬取百度瀑布流动态加载图片

百度图片的网页是一个动态页面,它的网页原始数据是没有图片的,通过运行 JavaScript ,把图片数据插入到网页的 html 标签里,所以在原始数据里是没有图片的,它只在运行时加载和渲染,得通过抓包...

按关键字爬取百度图片

使用requests包与百度图片服务器进行交互,得到返回的json数据后进行解析,最终获得百度图片的实际地址import requests from fake_useragent import Use...

python爬取百度图片

爬虫的原理:读取页面html元素,解析出目标的url,进入或下载保存。 一开始想从百度搜索的结果页面中爬点图片当素材,看了几个前辈写的,很多思路。 比如: http://blog.csdn.ne...

Python网络爬虫入门(一)——爬取百度贴吧图片

描述:用Python爬去百度贴吧图片并保存到本地。 本人刚学爬虫还不是很熟练,其中难点在于正则表达式的理解;#-*- coding:utf-8-*- import urllib import re ...
  • MTbaby
  • MTbaby
  • 2017年04月17日 12:43
  • 793

Python爬取百度图片

新人上路, 老司机们请多多关照, 写的不好的地方, 还请多指教.在很久很久以前, 我是一个苦逼的90后挨踢空穴老人, 一个人的夜里可是什么事都能干得出来! 这不, 我用我的把老师的图片给抓了过来…言归...

Python爬虫爬取百度图片

前期准备:一个所爬人物的名单txt,只要人名,一行一个。 代码流程:读取上述名单,遍历每一个人名,爬取30张关于他的百度图片,保存在以他名字命名的文件夹中。 #!/usr/bin/env python...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:Python3 根据关键字爬取百度图片
举报原因:
原因补充:

(最多只允许输入30个字)