小遛主页 爬虫
import requests
#面向过程 实现
url="https://www.xlgxapp.com"
headers={"user-agent":"Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36"}
response=requests.get(url,headers)
response.encoding="utf-8"
print(response.text)
51job主页 爬虫
# 面向对象 实现
class spider():
def __init__(self):
self.headers={"user-agent":"Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36"}
def submit(self,url):
response=requests.get(url,self.headers)
response.encoding = "gbk"
return response.text
if __name__=="__main__":
obj=spider()
res=obj.submit("https://www.51job.com")
print(res)
用google浏览器登录网页后(如:www.51job.com),点击右上角更多工具–开发者工具,再重新加载网页。
点network,拉到最上面,点网页地址,点击Headers,可以看到请求方法为GET。登录用户后,可以看到请求方法为Post
获取URL–>获取Headers(属性):network–headers 拉到最下面的User-agent