爬虫基础(三):Requsests模块发送post请求(附,翻译字典例子[request和requests的区别])

那些地方用到post请求
  • 登录注册(post比get更安全)
  • 需要传大文本内容的时候(post请求对数据长度没有要求)
发送post请求的用法

response=requests.post(‘http://wwww.baidu.com’,data=data,headers=headers)
data的形式:字典

import requests
import time
import random
from hashlib import md5
from urllib import parse, request
import json


class FanYi():
    '''
    调用有道的翻译
    '''

    def __init__(self, content):
        self.content = content

        self.url = 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'

    def create_md5(self, pinjie):
        md5_obj = md5()
        md5_obj.update(pinjie.encode('utf-8'))
        return md5_obj.hexdigest()

    def fanyi(self):
        # r = str(int(time.time() * 1000))
        salt = str(int(round(time.time(), 3) * 1000))
        a = "ebSeFb%=XZ%T[KZ)c(sy!"
        c = "fanyideskweb"

        sign = self.create_md5(c + self.content + salt + a)
        data = {
            'i': self.content,
            'from': 'AUTO',
            'to': 'AUTO',
            'smartresult': 'dict',
            'client': 'fanyideskweb',
            'salt': salt,
            'sign': sign,
            # 'ts': r,
            'bv': '8b6ff818d345d92b824d616f3a92d386',
            'doctype': 'json',
            'version': '2.1',
            'keyfrom': 'fanyi.web',
            'action': 'FY_BY_CLICKBUTTION',
            'typoResult': 'false'
        }
        headers = {
            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36",
            'Referer': 'http: // fanyi.youdao.com /',
            'Cookie': "OUTFOX_SEARCH_USER_ID=-948455480@10.169.0.83; " \
                      "JSESSIONID=aaajvZPcjhFWbgtIBPuiw; " \
                      "OUTFOX_SEARCH_USER_ID_NCOO=1148682548.6241577;" \
                      " fanyi-ad-id=41685; fanyi-ad-closed=1; ___rl__test__cookies=" + salt

        }

       # data = parse.urlencode(data).encode('utf-8') #用request实现
         r = requests.post(self.url, headers=headers, data=data)
        translate=r.content.decode()
        translate=json.loads(translate)
        #r = request.Request(self.url, data=data, headers=headers)
        #response = request.urlopen(r)
        #html = response.read().decode('utf-8')
        #translate = json.loads(html)
        print('翻译结果:', translate['translateResult'][0][0]['tgt'])

    def run(self):
        self.fanyi()


if __name__ == '__main__':
    world = input('输入要翻译的内容:')
    f = FanYi(world)
    f.run()

运行结果:
在这里插入图片描述
参考文章:https://blog.csdn.net/luosai19910103/article/details/79522067

request和requests的区别

urllib模块是python自带的,直接调用就好,用法如下:
1 #处理get请求,不传data,则为get请求
2 import urllib 3 from urllib.request import urlopen 4 from urllib.parse import urlencode 5 url=‘http://127.0.0.1:1990/login
6 data={“username”:“admin”,“password”:123456} 7 req_data=urlencode(data)#将字典类型的请求数据转变为url编码
8 res=urlopen(url+’?’+req_data)#通过urlopen方法访问拼接好的url
9 res=res.read().decode()#read()方法是读取返回数据内容,decode是转换返回数据的bytes格式为str
10 print(res)11 12 #处理post请求,如果传了data,则为post请求
13 import urllib14 from urllib.request import urlopen15 from urllib.request import Request16 from urllib.parse import urlencode17 url=‘http://127.0.0.1:1990/login
18 data={“username”:“admin”,“password”:123456}19 data=urlencode(data)#将字典类型的请求数据转变为url编码
20 data=data.encode(‘ascii’)#将url编码类型的请求数据转变为bytes类型
21 req_data=Request(url,data)#将url和请求数据处理为一个Request对象,供urlopen调用
22 with urlopen(req_data) as res:23 res=res.read().decode()#read()方法是读取返回数据内容,decode是转换返回数据的bytes格式为str
24 print(res)

相比较urllib模块,requests模块要简单很多,具体用法如下:
复制代码
1 # get请求
2 import requests 3 url=‘http://127.0.0.1:1990/login
4 data={“username”:“admin”,“password”:123456} 5 res=requests.get(url,data)#直接用requests.get(url,data)即可,其中.get表示为get方法,不需要对字典类型的data进行处理
6 #res=res.text#text方法是获取到响应为一个str,也不需要对res进行转换等处理
7 res=res.json()#当返回的数据是json串的时候直接用.json即可将res转换成字典
8 print(res) 9 10 #post请求
11 import requests12 url=‘http://127.0.0.1:1990/login
13 data={“username”:“admin”,“password”:123456}14 res=requests.post(url,data)#直接用requests.post(url,data)即可,其中.post表示为post方法,不需要对字典类型的data进行处理
15 #res=res.text#text方法是获取到响应为一个str,也不需要对res进行转换等处理
16 res=res.json()#当返回的数据是json串的时候直接用.json即可将res转换成字典
17 print(res)18 19 #当传参格式要求为json串时
20 import requests21 url=‘http://127.0.0.1:1990/login
22 data={“username”:“admin”,“password”:123456}23 res=requests.post(url,json=data)#只需要在这里指定data为json即可
24 #res=res.text#text方法是获取到响应为一个str,也不需要对res进行转换等处理
25 res=res.json()#当返回的数据是json串的时候直接用.json即可将res转换成字典
26 print(res)27 28 #传参含cookie
29 import requests30 url=‘http://127.0.0.1:1990/login
31 data={“username”:“admin”,“password”:123456}32 cookie={“sign”:“123abc”}33 res=requests.post(url,json=data,cookies=cookie)#只需要在这里指定cookies位cookie即可,headers,files等类似
34 res=res.json()35 print(res)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在信号处理领域,DOA(Direction of Arrival)估计是一项关键技术,主要用于确定多个信号源到达接收阵列的方向。本文将详细探讨三种ESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)算法在DOA估计中的实现,以及它们在MATLAB环境中的具体应用。 ESPRIT算法是由Paul Kailath等人于1986年提出的,其核心思想是利用阵列数据的旋转不变性来估计信号源的角度。这种算法相比传统的 MUSIC(Multiple Signal Classification)算法具有较低的计算复杂度,且无需进行特征值分解,因此在实际应用中颇具优势。 1. 普通ESPRIT算法 普通ESPRIT算法分为两个主要步骤:构造等效旋转不变系统和估计角度。通过空间平移(如延时)构建两个子阵列,使得它们之间的关系具有旋转不变性。然后,通过对子阵列数据进行最小二乘拟合,可以得到信号源的角频率估计,进一步转换为DOA估计。 2. 常规ESPRIT算法实现 在描述中提到的`common_esprit_method1.m`和`common_esprit_method2.m`是两种不同的普通ESPRIT算法实现。它们可能在实现细节上略有差异,比如选择子阵列的方式、参数估计的策略等。MATLAB代码通常会包含预处理步骤(如数据归一化)、子阵列构造、旋转不变性矩阵的建立、最小二乘估计等部分。通过运行这两个文件,可以比较它们在估计精度和计算效率上的异同。 3. TLS_ESPRIT算法 TLS(Total Least Squares)ESPRIT是对普通ESPRIT的优化,它考虑了数据噪声的影响,提高了估计的稳健性。在TLS_ESPRIT算法中,不假设数据噪声是高斯白噪声,而是采用总最小二乘准则来拟合数据。这使得算法在噪声环境下表现更优。`TLS_esprit.m`文件应该包含了TLS_ESPRIT算法的完整实现,包括TLS估计的步骤和旋转不变性矩阵的改进处理。 在实际应用中,选择合适的ESPRIT变体取决于系统条件,例如噪声水平、信号质量以及计算资源。通过MATLAB实现,研究者和工程师可以方便地比较不同算法的效果,并根据需要进行调整和优化。同时,这些代码也为教学和学习DOA估计提供了一个直观的平台,有助于深入理解ESPRIT算法的工作原理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值