简单利用python的request库把开源中国工具箱的网址爬下来(新手友好)

代码已开源可以到github上直接下载:

https://github.com/ICEJM1020/StationMaster

开源中国工具网 http://tool.oschina.net 是一个对程序员十分友好的网站,里面有很多可供使用的在线工具。request库是python中非常简单的一个网页处理库,相比于Scrapy这样的大型爬虫库,request库更容易上手,再配合BeautifulSoup和re库的正则表达式,非常容易上手,这篇文章就以站长之家为样本,爬取下主页工具的链接网址。

 一、网页分析

工具网网页非常简单,用来爬虫入门那是相当方便。当然,选择这个网站最主要的原因还是因为他真的很好用,在爬取内容的同时学一些技术也是很好的。站长值加的首页上非常简单,里面就包含了我们想要的所有东西,我们的的目标就是做成一个网站工具的目录,将工具与网站一一对应,然后用.txt文件存储起来方便使用

首先还是看分析网页,对于爬虫来说,页面简单其实并不是一件好事儿,因为爬虫主要靠的就是目标信息被拥有特征class或者id或者name的标签给包裹起来,依据这种特征找目标。

可以看看我们想要的标题和链接:

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值