通过python抓取博客信息

最近写博客,忽然想知道自己的博客阅读量的趋势都是怎么样的,无奈CSDN并不提供这个功能。本来是想偶尔的手动查看,记录到excel表格中然后一段时间后就能知道大概了,但是作为程序员能够交个程序自动执行的就不要采用这种原始的办法了,上网一搜果然有和我一样“无聊的”想做这个统计的,再加上最近学习python,所以就决定写个python爬虫脚本来抓取这些信息!(无奈python水平太弱,对于python中一些高效用法、字符串分割竟然不会用,所以采用了一些很low的语法实现,待后续python语言能力提高应该可以修改其中的垃圾语法,大家看个大概即可,参考文章(此文章的爬虫规则已经不适用与新版的CSDN页面,但是提供了很好的思路):【Python脚本】-爬虫得到CSDN博客的文章访问量和评论量

#!usr/bin/python
# -*- coding: utf-8 -*-
from urllib import request
from bs4 import BeautifulSoup

account = "u011552404"

baseUrl = 'http://blog.csdn.net'

'''
使用urllib获取html页面
'''
def getPage(url):
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    headers = {'User-Agent': user_agent}  # 伪装成浏览器访问
    req = request.Request(url, headers=headers)
    Response = request.urlopen(req)
    Page = Response.read()
    return Page


'''
获取文章分页数:
1、目的是在接下来的页面抓取中能够抓取每一页的数据
2、分页数在CSDN下有规律,即页码显示区域的最后一个数字就是总页数
'''


def getPageCount(url):
    Page = getPage(url)
    soup = BeautifulSoup(Page, 'html.parser', from_encoding='utf-8')  # 利用BeautifulSoup解析XML,形成特殊的Tag对象
    papeList = soup(class_="page-link")#页码显示区域
    numberList = papeList[-2]#提取页码显示区域数据
    res = str(numberList).split('<')[-2].split('>')[-1]#提取页码数
    return res


'''
提取所有文章数和阅读数
1、请参看BeautifulSoup的教程理解
2、核心原理就是获取+分割+得到关键字,具体如何提取请在CSDN页面上调出“开发者模式调试控制台”(F12),
   总结所有抓取的信息在页面上的位置、元素特点,建议有一定的前端HTML经验
3、提取后存入txt文档
'''

def getArticleDetails():
    myUrl = baseUrl + '/' + account
    page_sum_number = getPageCount(myUrl)
    print("pageNumber", page_sum_number)
    cur_page_num = 1
    linkList = []
    titleList = []
    dateList = []
    readList = []
    while cur_page_num <= int(page_sum_number):
        url = myUrl + '/article/list/' + str(cur_page_num)  # CSDN的每页博客的URL地址格式
        myPage = getPage(url)
        soup = BeautifulSoup(myPage, 'html.parser', from_encoding='utf-8')#解析当前XML页面的为soup对象
        print(soup)
        for blog_list in soup.find_all(class_="blog-unit"):#CSDN博客中目录页每篇博客所在的元素class统一为"blog-unit",所以通过此关键字定位到博客信息列表
            print("blog_list", blog_list.contents)
            link_elment = blog_list.contents[1]#第一个元素即为链接地址所在
            link = link_elment['href'].strip()  # 提取链接地址
            print("link", link)
            name_elment = link_elment.contents[1]#链接地址所在元素的第一个元素又是名称元素
            name = str(name_elment).split('\n')[-1].split('\t')[-3]  # 提取博客文章名称
            print("name", name)
            linkList.append(link)
            titleList.append(name)
        '''
        日期和阅读数提取这里出现了意外的情况:明明日期和阅读数所在元素区域是和上一个博客标题区域分离的,
        结果解析出来竟然把日期和博客阅读数作为blog_list的子节点(子区域),这里重新提取关键字class_=
        " floatL left-dis-24",但是由于这个关键字所在区域同时检索出了三个信息:日期、阅读数、评论数
        所以,一次循环同时提取三个信息,所以for in 语句不能用了,采用list的索引指针移动的形式,每次提
        取三个信息(实际代码作演示只提取了两个)
        '''
        list = soup.find_all(class_=" floatL left-dis-24")
        i = 0
        while i < len(list):
            date_info = list[i]
            print("date_info", type(date_info), date_info)
            date = str(date_info).split('<')[1].split('>')[-1]
            print("date", date)
            dateList.append(date);
            i = i + 1
            read_info = list[i]
            print("read_info", read_info)
            read_span = read_info.find('span')
            read = str(read_span).split('>')[1].split('<')[0]
            print("read", read)
            readList.append(read)
            i = i + 2 # 跳过下一个信息提取
        cur_page_num = cur_page_num + 1
    f = open("./read_count.txt", "a+")
    for i in range(0, len(titleList)):
        #string = titleList[i] + '\t' + linkList[i] + '\t' + dateList[i] + '\t' + readList[i] + '\t' + '\n'
        string = readList[i] + '\n'
        f.write(str(string))
    f.write('\n')
    f.close()


if __name__ == "__main__":
    getArticleDetails()

详细的注释已经写在了代码里,本身很好理解,同时附上github地址:Github/BloginfoSpider
另外需要注意的是:自己使用的时候还是依据自己所要爬虫的页面里的特定的元素信息来修改其中的抓取机制!下面是部分抓取结果(标题、地址、时间、阅读数):

netstat命令输出结果分析 https://blog.csdn.net/u011552404/article/details/51130936   2016-04-12 11:15:28 5916    
64位和32位的区别  https://blog.csdn.net/u011552404/article/details/50942783   2016-03-21 10:02:22 510 
路由相关知识  https://blog.csdn.net/u011552404/article/details/50917408   2016-03-17 21:45:48 422 
4G模块中兴ME3760调试记录    https://blog.csdn.net/u011552404/article/details/50865836   2016-03-12 17:03:29 5433    
select()函数和fd_set   https://blog.csdn.net/u011552404/article/details/50828029   2016-03-08 16:12:54 264 
对Socket函数的理解    https://blog.csdn.net/u011552404/article/details/50827968   2016-03-08 16:07:59 254 
对H264进行RTP封包原理  https://blog.csdn.net/u011552404/article/details/50814532   2016-03-06 18:30:53 205 
RTP时间戳  https://blog.csdn.net/u011552404/article/details/50814433   2016-03-06 18:03:09 262 
树莓派下使用USB摄像头    https://blog.csdn.net/u011552404/article/details/50807741   2016-03-05 11:22:26 8425    
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值