用selenium+requests进行爬虫,使用Python3
爬取动态页面
获取页面信息F12-network-XHR-在页面中点击下一页-找到list相关文件-headers
使用GET方法
requests.get(url,params = query,headers=headers)太坑了!!!
request.post(url,data=data)//post方法是否适用未经验证,仅做参考
之前一直使用的是
requests.get(url,params = query)
一直不能实现翻页,直到遇见了如何解决python爬虫中Response [200]返回值问题这个博客,醍醐灌顶,解决了困扰我许久的问题
附上最后代码
下面展示一些 内联代码片
。
// An highlighted block
headers={