【Python】爬虫-----requests

一、伪装

为什么要伪装呢?因为不伪装,服务器就知道你是个爬虫程序就会执行反爬,所以爬虫程序要伪装得更像浏览器“蒙混过关”,在浏览器里按F12打开检查,里面有可以用来伪装的数据,也就是header。

复制这一段"user-agent",伪装成浏览器的header里的一个内容。

import requests
url = "https://haokan.baidu.com/v?pd=wisenatural&vid=13010513670189503165"
headers = {
    "User-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36"
}
rep = requests.get(url,headers=headers)
print(rep.text)
rep.close();

二、访问百度翻译

 由图可以看到该地址的请求方法为post,并且可以向该地址发送数据接收返回内容。

import requests
while(True):
    url = "https://fanyi.baidu.com/sug"
    s = input("请输入你要翻译的英文单词:")
    kw = {
        "kw":s
    }
    rep = requests.post(url, data= kw)
    print(rep.json())
    rep.close()

运行结果:


三、访问豆瓣排行榜

这回要用get函数了,如果嫌弃请求地址太长,可以用字典封装他的参数。这次还是要输入header🦎。

import requests
url = " https://movie.douban.com/j/chart/top_list"
#重新封装参数
dic  = {
        "type": "1",
        "interval_id": "100:90",
        "action":"",
       " start":"0",
        "limit": "20"
 }
headers = {
    "User-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36"
}
rep = requests.get(url=url, params=dic,headers=headers)
print(rep.text)
rep.close()

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SamRol

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值