python优化工作流程:python用url爬取页面数据到网页Excel中(一)

boss最近布置了个任务,把平时的后勤任务全部自动化,给了三个月的时间,如果是python大神,那当然是绰绰有余,可惜我不是啊,只好用旧有的东西和临时百度(对,虽然我可以上外网,但是我不认识英文,所以我用百度)拼凑一个出来。知道一篇文章肯定是写不完了,所以加了个一,后续会跟上。如果有正好同样有这个需求的,文章下方评论区多指教,有更好的方法的千万别藏着掖着,分享出来,嘿嘿嘿~~第一步当然...
摘要由CSDN通过智能技术生成

boss最近布置了个任务,把平时的后勤任务全部自动化,给了三个月的时间,如果是python大神,那当然是绰绰有余,可惜我不是啊,只好用旧有的东西和临时百度(对,虽然我可以上外网,但是我不认识英文,所以我用百度)拼凑一个出来。

知道一篇文章肯定是写不完了,所以加了个一,后续会跟上。

如果有正好同样有这个需求的,文章下方评论区多指教,有更好的方法的千万别藏着掖着,分享出来,嘿嘿嘿~~

第一步当然是抓数据了,我要抓的这个页面是从数据库动态加载的(别问我为啥不直接从数据库拿,数据库不是我家的),如果页面的数据不是从数据库加载,反而是通过标签就能获取到的,那就没必要往下看了,因为我,不会用标签获取(后期有需要再学)

获取方法:URL请求

第一步:拿到请求URL

打开浏览器要爬数据的网页,F12,默认是在elements上,打开network->XHR->Name下面带有?的都可以点击,就出现了右面的东西了,这个时候在Headers总就看到了要找的数据的url,复制,在浏览器中输入查询,会打开另一片天地呦

没找到贴代码的工具,就这么粘了,下面代码出来的数据就是在浏览器中直接访问上面的url看到的数据

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值