百度返回的JSON数据解析返回的objURL(python版本)

这几天需要写一个爬虫(用的是Python的Scrapy框架),但是获得百度的数据之后发现获得的图片的objURL是算法加密的,于是就网上找了找怎么解析百度的objURL数据,经过多方磨难,写出了以下Python语言的解密代码。这里贴出来用于分享和备忘。(高手绕道)

import re
txt = 'ippr_z2C$qAzdH3FAzdH3Fv8_z&e3Biwtkw5_z&e3BvgAzdH3Ft42AzdH3Fmaa_a_8aa_8AzdH3F89089dn8bl_z&e3B0l8dAzdH3F80dblmvvdddnjck9nnka1jjn9kwkmjbw_z&e3B3r2'
def  baidtu_uncomplie(url):
    res = ''
    c = ['_z2C$q', '_z&e3B', 'AzdH3F']
    d= {'w':'a', 'k':'b', 'v':'c', '1':'d', 'j':'e', 'u':'f', '2':'g', 'i':'h', 't':'i', '3':'j', 'h':'k', 's':'l', '4':'m', 'g':'n', '5':'o', 'r':'p', 'q':'q', '6':'r', 'f':'s', 'p':'t', '7':'u', 'e':'v', 'o':'w', '8':'1', 'd':'2', 'n':'3', '9':'4', 'c':'5', 'm':'6', '0':'7', 'b':'8', 'l':'9', 'a':'0', '_z2C$q':':', '_z&e3B':'.', 'AzdH3F':'/'}
    if(url==None or 'http' in url):
        return url
    else:
        j= url
        for m in c:
            j=j.replace(m,d[m])
        for char in j:
            if re.match('^[a-w\d]+$',char):
                char = d[char]
            res= res+char
        return res

print(baidtu_uncomplie(txt))

txt内容为获得的objURL内容,最后解密后打印出来为

http://c1.haibao.cn/img/600_0_100_1/1471423189.7912/172896cc2223e5b433b0dee34bab6e8a.jpg

好了Python解析就完成了。

  • 6
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
下面是一个使用Python编写的示例代码,可以根据关键字从百度图片搜索中爬取图片: ```python import requests import os def download_images(keyword, num_images): url = 'http://image.baidu.com/search/flip' params = { 'tn': 'baiduimage', 'word': keyword, 'pn': 0, 'rn': 30, 'gsm': '3c', } headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Referer': 'http://image.baidu.com', } try: os.makedirs(keyword) except OSError as e: if e.errno != 17: raise for i in range(0, num_images, 30): params['pn'] = i resp = requests.get(url, params=params, headers=headers) resp.raise_for_status() data = resp.json() for j, img in enumerate(data['data']): try: img_url = img['objURL'] img_resp = requests.get(img_url, timeout=10) img_resp.raise_for_status() with open(os.path.join(keyword, f'{i + j}.jpg'), 'wb') as f: f.write(img_resp.content) print(f'Successfully downloaded {i + j}.jpg') except Exception as e: print(f'Error occurred while downloading {i + j}.jpg: {str(e)}') if __name__ == '__main__': keyword = input('Enter keyword: ') num_images = int(input('Enter number of images to download: ')) download_images(keyword, num_images) ``` 请注意,此代码使用了requests库来发送HTTP请求,因此您需要确保已安装该库。此外,代码中使用了os和json库来处理文件和JSON数据。在运行代码之前,请确保您已安装这些库。 使用此代码,您可以输入要搜索的关键字和要下载的图像数量,然后它将从百度图片搜索中爬取图像并保存到以关键字命名的文件夹中。请注意,爬取图片可能会涉及到版权问题,请确保遵守相关法律法规。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天心有情

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值