python爬虫代码 —— 无套路,直接用

因发帖规则,如需爬取其他各大网站请详细看我发布的文章

本代码仅供教学使用,任何非法行为与本帖无关

 

超级规范的代码 —— 供大家免费使用、教学(搜狗)

import os
import requests
import json


def get_html(url):
    response = requests.get(url)
    return response.content


def paqu(shuliang, name, path):
    global imagedata

    if not os.path.isdir(path):
        os.makedirs(path)
    k = 1
    for i in range(int(shuliang / 48)):
        pic_urls = []
        url = 'https://pic.sogou.com/napi/pc/searchList?mode=1&start=%d&xml_len=48&query=%s' % ((i+1) * 48, name)
        content = get_html(url)

        json_object = json.loads(content)
        print(type(content))
        for j in range(len(json_object["data"]["items"])):
            imageurl = json_object["data"]["items"][j]["oriPicUrl"]
            pic_urls.append(imageurl)
        print(len(pic_urls))
        for l in range(len(pic_urls)):
            print("正在下载第" + str(k) + "张")
            try:
                imagedata = get_html(pic_urls[l])
            except:
                print("下载失败")
                k = k - 1
            with open(path + "/" + str(k) + ".jpg", "wb") as f:
                f.write(imagedata)
            k = k + 1
    print("下载完成")


if __name__ == '__main__':
    guanjianc = str(input("请输入关键字:"))
    shuliang = int(input("请输入获取数量"))
    wenjianmin = str(input("保存文件名"))
    paqu(shuliang, guanjianc, "wenjianmin")

 使用效果图

52c8cb61f24046aaa14adddd6b3a3d4d.png

还有什么问题可在评论区提问

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

-陈福城-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值