python爬取科学网基金项目信息

听说学校快开学了…任务再不快点做的话,估计开学要被导师骂死,所以要查一下近年来自己研究领域的基金中标情况!

遇到的问题

  1. 导师给了个科学网的网址让我自己查基金,查完告诉他结果,可是! 在科学网查询的时候,发现只要同一IP短时间内访问 10次 左右,网页就会说你 访问太频繁 了…然后 等个10分钟左右才能重新访问
  2. 在科学网碰壁后,我先是查了下有没有别的基金查询网站,然后发现在一众网站中,还是科学网的信息更全面一点(nsfc,medsci,letpub等),然后就还是爬虫叭!!!

1. 了解科学网的框架,根据自己的目标来设计爬虫思路

目标
要根据摘要来了解相关信息,那么发现在这个页面上是没有摘要的,只有点入某个标题后才能获取基金的摘要等详细信息

思路

  1. 网址的设置 (限制学科分类、限制年份、关键字)
  2. 目标元素的获取
  3. 循环的编写

2. ACTION

先在科学网的基金页面填写好相关关键词,选好学科分类和年份后,点击“查询按钮”
然后将浏览器顶部的网址复制到vs code中,修改网址组成(主要是改年份和页数)
回到浏览器,观察目标元素的位置,xpath定位
再写个嵌套循环
(别忘了需要一定的等待时间)
OKKK!!!

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 16
    评论
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值