【爬虫】爬虫学习 数据请求 request.get()

import requests  # 用于请求网络
import os
from urllib.parse import quote

start_url = f"https://image.baidu.com/search/index"
headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36",
           'Accept': 'application/json, text/javascript, */*; q=0.01'}

user_input = input("请输入你要搜索的关键字<示例:复古穿搭 男>")
user_pages = input("请输入你要爬取的页数<示例:5>")

os_path = os.getcwd() + '/' + f'{user_input}'
if not os.path.exists(os_path):
    os.mkdir(os_path)


for page in range(1, int(user_pages)+1):

    params = {
        'tn': 'resultjson_com',
        'logid': '10744800491272928835',
        'word': f'{user_input}',
        'ie': 'utf-8',
        'pn': f'{page * 30}',
        'rn': '30',
        }

    response = requests.get(start_url, headers=headers, params=params).json()

    for num in range(30):
        data = response["data"][num]
        image_url = data['thumbURL']
        img = requests.get(image_url).content

        with open(os_path + '/' + f"{30 * (page-1) + num +1}" + '.jpg', 'wb') as f:
            f.write(img)

        print(f"图片{30 * (page-1) + num + 1} =================采集完成==========logging!")

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Enzo 想砸电脑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值