python爬取csdn的博客内容

本文介绍了如何使用Python构建爬虫来抓取CSDN博客中的文章URL。通过3步走策略,包括设置正则表达式、打开网页并读取内容、搜索特定字符串,详细阐述了抓取过程。示例代码展示了如何从博客主页中提取文章详情页的链接。
摘要由CSDN通过智能技术生成

首先说明爬虫的大体结构可以通用,不过针对字符串的匹配是不能通用的,比如你用爬取csdn的代码想去爬取博客园就是不行的了,因为爬取的字符是根据对应的html内容设置的。

使用python构建爬虫程序有一个简单的套路,我总结为3步走:

1.re.compile设置查找的字符串样式

2.page = urllib.urlopen打开网页,page.read读取网页内容

3.re.search/re.findall查找到给定字符串样式的具体内容

下面我给出一个查找csdn博客中文章的URL的例子:

首先随便打开一个博客(比如我随即找了一个博客:http://blog.csdn.net/mynameishuangshuai),查看一下源码,慢慢去找一下关于带有href标签的段落,发现了下面这一段(或者你用windows的浏览器也可以直接用鼠标去点文章标题就可以看到了)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值