【Python】爬虫入门3:获取百度翻译的结果

前言

1. 发送什么类型的请求在对应网页控制台( F12 )的这里看:

于是我们知道了是 POST 请求,就可以:

requests.post(url=url,data=data,headers=headers)

 

源代码

#!/usr/bin/env python
# -*- coding: UTF-8 -*-

# 需求:获取关键字的百度翻译结果

# noinspection PyUnresolvedReferences
import json
import requests

if __name__ == '__main__':
    # UA伪装:将访问对象伪装为浏览器
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'
    }
    # 爬虫主体
    url = "https://fanyi.baidu.com/sug"
    keyword = input('请输入要翻译的单词或句子:')
    data = {
        'kw': keyword
    }
    response = requests.post(url=url, data=data, headers=headers)  # 查看百度翻译源代码
    dic_obj = response.json()  # 必须确认返回值是 json ,才可以使用 .json()
    fileName = keyword + '.json'

    #数据持久化
    # 方法1
    fp = open(fileName,'w',encoding='utf-8')
    json.dump(dic_obj,fp=fp,ensure_ascii=False)
    fp.close()

    # 方法2
    #with open(fileName,'w',encoding='utf-8')as fp:
    #    fp.write(json.dumps(dic_obj,indent=4))

    print(json.dumps(dic_obj,indent=4))

结果:

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值