Python爬虫的UA伪装

Python爬虫UA伪装

在进行爬取搜狗的网页采集器时,一开始采取的是常规的爬取方法,代码如下

if __name__=="__main__":
    url="https://www.sogou.com/web"
    queryword=input("输出关键字")
    param={
        "query":queryword
    }
    res=requests.get(url=url,params=param)
    res.encoding="utf-8"
    page_text=res.text
    fileName=queryword+".html"
    with open(fileName,"w",encoding="utf-8") as fs:
        fs.write(page_text)
    print(page_text+"爬取结束")

查看爬取完后的数据发现,数据并没有被爬取下来
在这里插入图片描述
原因如下:
UA:User—Agent(请求载体的身份标识)
UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是一个正常的请求。
如果检测到请求的载体身份标识不是基于某一款浏览器的。则表示该请求为不正常的请求,则服务器端就很有可能会拒绝该次请求。

解决方法
采用UA伪装:让爬虫对应的请求载体身份标识伪装成某一款浏览器,这里采用的伪装成Chrome浏览器
代码如下:

import requests
#UA:User—Agent(请求载体的身份标识)
# UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是一个正常的请求。
# 如果检测到请求的载体身份标识不是基于某一款浏览器的。则表示该请求为不正常的请求,则服务器端就很有可能会拒绝该次请求
if __name__=="__main__":
    headers={
        "User-Agent":"Mozilla/5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 88.0.4324.150 Safari / 537.36"
    }
    url="https://www.sogou.com/web"
    queryword=input("输出关键字")
    param={
        "query":queryword
    }
    res=requests.get(url=url,params=param,headers=headers)
    res.encoding="utf-8"
    page_text=res.text
    fileName=queryword+".html"
    with open(fileName,"w",encoding="utf-8") as fs:
        fs.write(page_text)
    print(page_text+"爬取结束")

添加伪装的请求头后再次进行爬虫请求,成功得到爬取到的html文件。
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值