request模块:python中原生的一款基于网络请求的模块
作用:模拟浏览器发送请求
如何使用:
1)指定url
2)发起请求(get、post)
3)获取响应数据
4)持久化存储
代码实现:爬取搜狗首页的数据
import requests
if __name__ == '__main__':
# 1)指定url
url = 'https://www.sogou.com/'
# 2)发起请求
#get方法会返回一个响应对象,使用response接收
response=requests.get(url=url)
# 3)获取响应数据
#response.txt返回一组字符串,使用page_text接收
page_text=response.text
# 4)持久化存储
with open('./sougou.html','w',encoding='utf-8') as fp:
fp.write(page_text)
UA伪装:
请求载体身份标识,通过浏览器发起的请求,请求载体为浏览器,则该请求的User-Agent为浏览器的身份标识,如果使用爬虫程序发起的请求,则该请求的载体为爬虫程序,则该请求的User-Agent为爬虫程序的身份标识。服务器可以通过该值来判断发起请求的是浏览器还是爬虫程序。
网页采集器
import requests
#UA伪装:User-Agent(请求载体的身份标识)
if __name__ == '__main__':
#UA伪装:将对应的User-Agent封装到一个字典中
#User-Agent可以通过抓包工具获取
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.56'
}
url='https://www.sogou.com/web'
kw=input("input word:")
param={
'query':kw
}
response=requests.get(url=url,params=param,headers=headers)
page_text=response.text
fileName=kw+'.html'
with open(fileName,"w",encoding="utf-8") as fp:
fp.write(page_text)