python百度、必应、搜狗根据关键字爬取图片

百度、搜狗、必应爬取图片
直接运行crawler_img.py。然后根据自己需要下载图片。

import os
import requests
from baidu_img import baidu_pic_url
from sougou_img import sougou_pic_url
from biying_img import biying_pic_url

class Crawler():
    def __init__(self, num, keyword, engine):
        self.num = num
        self.keyword = keyword
        self.engine = engine

    def down_img(self):
        if self.engine == 'baidu':
            pic_url = baidu_pic_url(self.num, self.keyword)
        elif self.engine == 'sougou':
            pic_url = sougou_pic_url(self.num, self.keyword)
        elif self.engine == 'biying':
            pic_url = biying_pic_url(self.num, self.keyword)
        else:
            print('错误的搜索引擎,请重新运行,输入:baidu、sougou、biying')

        if os.path.exists('G:/datalabel/SOUGOU/' + self.engine + '/' + self.keyword):
            pass
        else:
            os.makedirs('G:/datalabel/SOUGOU/' + self.engine + '/' + self.keyword)

        path = 'G:/datalabel/SOUGOU/' + self.engine + '/'
        for index, i in enumerate(pic_url):
            try:
                filename = path + self.keyword + '/' + str(index) + '.jpg'
                print(filename)
                with open(filename, 'wb+') as f:
                    f.write(requests.get(i).content)
            except:
                continue

if __name__ == '__main__':
    keyword = str(input('请搜索关键词:(如:美女)'))
    num = int(input('请输入爬取图片数目:'))
    engine = str(input('请输入:baidu, sougou, biying其中之一'))
    crawler = Crawler(num, keyword, engine)
    crawler.down_img()


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值