Python爬虫 UA检测和UA伪装

目标:爬取搜狗输入关键字对应搜索内容

import requests
if __name__=='__main__':
    headers={
        #UA伪装,下面有介绍怎么获取到User-Agent
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36'
    }
    url='https://www.sogou.com/web'
    kw=input('enter a woed:')
    #把参数封装到字典
    param={
        'query':kw
    }
    #对指定的url发起请求
    respo = requests.get(url=url,params=param,headers=headers)
    pespo_text=respo.text
    filename=kw+".html"
    #持久化保存,生成一个HTML文件
    with open(filename,'w',encoding='utf-8') as fp:
        fp.write(pespo_text)
        print(filename,'保存成功')

获取对应的User-Agent
在这里插入图片描述

首先F12进入开发者模式

在这里插入图片描述

然后选择Network

在这里插入图片描述

选择logo115_50.png?v=5 选择Headers,找到User-Agent复制到代码中

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值