Python爬虫UA伪装
在进行爬取搜狗的网页采集器时,一开始采取的是常规的爬取方法,代码如下
if __name__=="__main__":
url="https://www.sogou.com/web"
queryword=input("输出关键字")
param={
"query":queryword
}
res=requests.get(url=url,params=param)
res.encoding="utf-8"
page_text=res.text
fileName=queryword+".html"
with open(fileName,"w",encoding="utf-8") as fs:
fs.write(page_text)
print(page_text+"爬取结束")
查看爬取完后的数据发现,数据并没有被爬取下来
原因如下:
UA:User—Agent(请求载体的身份标识)
UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是一个正常的请求。
如果检测到请求的载体身份标识不是基于某一款浏览器的。则表示该请求为不正常的请求,则服务器端就很有可能会拒绝该次请求。
解决方法
采用UA伪装:让爬虫对应的请求载体身份标识伪装成某一款浏览器,这里采用的伪装成Chrome浏览器
代码如下:
import requests
#UA:User—Agent(请求载体的身份标识)
# UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是一个正常的请求。
# 如果检测到请求的载体身份标识不是基于某一款浏览器的。则表示该请求为不正常的请求,则服务器端就很有可能会拒绝该次请求
if __name__=="__main__":
headers={
"User-Agent":"Mozilla/5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 88.0.4324.150 Safari / 537.36"
}
url="https://www.sogou.com/web"
queryword=input("输出关键字")
param={
"query":queryword
}
res=requests.get(url=url,params=param,headers=headers)
res.encoding="utf-8"
page_text=res.text
fileName=queryword+".html"
with open(fileName,"w",encoding="utf-8") as fs:
fs.write(page_text)
print(page_text+"爬取结束")
添加伪装的请求头后再次进行爬虫请求,成功得到爬取到的html文件。