一起学python-1发现群组-数据抓取

      最近在学习群组的发现,如何通过python 代码实现,说下我们的目标,捕获公司内网的5000多篇技术精英大赛的文章,然后对文章进行分词,最后计算出相关性,通过图的形式输出结果,在输出结果前,我们是无法知道文章的相似性,围绕这一目标进行学习。

    本次主要是数据的抓取。

    目标网站数据源如图

  1. 大致有5100篇文章 ,但是一页只有30多篇的样子,然后继续下拉,有个浏览更多

然后开启firefox,启动web开发者-控制台,直接看协议包,思路是直接利用firefox的cookie,然后进行模拟登陆获取。

查看第一个点击“全部帖子”走的是get协议,查看cookie有4个,通过测试实际有用的就最后一个 JSESSIONID,其实懒的话,4个一起丢cookie,好了默认第一页比较简单,然后点击“浏览更多”

发现多了很多参数,然后就思考这些参数的大致意思,应该是记录当前最大url地址和最小url地址,以及当前的页码&#x

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值