用python爬虫监控CSDN博客阅读量

作为一个博客新人,对自己博客的访问量也是很在意的,刚好在学python爬虫,所以正好利用一下,写一个python程序来监控博客文章访问量

效果

这里写图片描述

代码会自动爬取文章列表,并且获取标题和访问量,写入excel,并且对新加入的文章也有作用

解析HTML

html通过beautifulsoup来解析,由于是静态的网页,数据直接在网页中,而不是生成的,所以直接提取出来就可以

提取文章标题和访问量

通过观察HTML 我们发现每一个文章都存储在一个类名为‘article-item-box csdn-tracking-statistics’的div中, 所以找到类名为这个的div
发现文章标题藏在此div的h4下的a下,所以提取出来即可
这里写图片描述

提取代码如下

articleList = soup.find_all('div', attrs={'class': 'article-item-box csdn-tracking-statistics'})
readBar = soup.find_all('div', attrs={'class': 'info-box d-flex align-content-center'})
articleListLen = len(articleList)

    #把数据写入到表格里
for i in range(articleListLen):
    articleName = articleList[i].h4.a.contents[2]
    articleReadCount = readBar[i].contents[3].span.string.split(":")[1]

存储信息格式

存储信息通过一个表格来存储,结构如下

标题日期1日期2···
文章1访问量1访问量2···
文章2访问量1访问量2···
文章3访问量1访问量2···
文章4访问量1访问量2···
访问量1访问量2···

每次调用程序就会生成一列数据

存储过程

利用xlwt, xlrd 进行表格的读写

#如果excel表格不存在,则创建
if not os.path.exists("ReadRecord.xls"):
    workbook = xlwt.Workbook()
    worksheet = workbook.add_sheet('My ReadRecord')
    worksheet.write(0, 0, "1")
    workbook.save("ReadRecord.xls")

# 打开excel, 为rexcel
rexcel = xlrd.open_workbook("ReadRecord.xls")
# 拷贝原来的rexcel, 变成excel
excel = copy(rexcel)
# 得到工作表
worksheet = excel.get_sheet(0)
# 得到列数
read_time = rexcel.sheets()[0].ncols

###写入操作

#保存表格
excel.save('ReadRecord.xls')

需要注意的地方

  • 表格新添加的列的列数是根据原来的表格列数来的
  • 因为是进行更新,所以先要拷贝原来的表格,不然直接用write是进行覆盖
  • 因为用户有可能会继续发布博客, 所以最新的博客信息,应该存在最后一行, url改为经过时间排序的html(比如https://blog.csdn.net/qq874455953?orderby=UpdateTime), 而且默认是按新旧排序,所以加入的时候,从最后一行来写入表格

    代码源码

# coding=gbk
import requests
import datetime
import os
import xlwt
import xlrd
from xlutils.copy import copy
from bs4 import BeautifulSoup

#获取HTML
def get_page_source(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "failed"

def main():

    #url = input("请输入博客主页网址, 比如:https://blog.csdn.net/qq874455953\n")
    url = "https://blog.csdn.net/qq874455953"
    allArticleInfo = []

    for i in range(1,5):
        #因为可能会有多个页面, 这里假设不超过五页,所以需要循环解析多个页面, 对应的url会改变
        urlNow = url + "/article/list/" + str(i)
        #之所以加上“?orderby=UpdateTime” 是因为需要每次的文章顺序相同, 所以按照更新时间来排序
        html = get_page_source(urlNow + '?orderby=UpdateTime')
        #解析HTML  使用BeautifulSoup

        soup = BeautifulSoup(html, 'html.parser')
        articleList = soup.find_all('div', attrs={'class': 'article-item-box csdn-tracking-statistics'})
        readBar = soup.find_all('div', attrs={'class': 'info-box d-flex align-content-center'})
        #获取文章列数
        articleListLen = len(articleList) 
        #把数据放入到allArticleInfo数组里,  数组的每一项是一个(<文章名字>,<文章阅读>)的元祖
        for i in range(articleListLen):

            articleName = articleList[i].h4.a.contents[2]
            articleReadCount = readBar[i].contents[3].span.string.split(":")[1]
            allArticleInfo.append((articleName, articleReadCount))
    #调用函数写入到excel表格里
    writeToExcel(allArticleInfo)

def writeToExcel(allArticleInfo):

    #如果excel表格不存在,则创建
    if not os.path.exists("ReadRecord.xls"):
        workbook = xlwt.Workbook()
        worksheet = workbook.add_sheet('My ReadRecord')
        worksheet.write(0, 0, "1")
        workbook.save("ReadRecord.xls")

    # 打开excel, 为rexcel
    rexcel = xlrd.open_workbook("ReadRecord.xls")
    # 拷贝原来的rexcel, 变成excel
    excel = copy(rexcel)
    # 得到工作表
    worksheet = excel.get_sheet(0)
    # 得到列数
    read_time = rexcel.sheets()[0].ncols

    #得到当前日期
    nowTime = str(datetime.datetime.now().strftime('%Y-%m-%d'))

    #写好第一列的说明
    worksheet.write(0, 0, "文章名字")
    worksheet.write(0, read_time, nowTime)

    infoLength = len(allArticleInfo)

    #把数据写入到表格里, 之所以反着写是希望新写的文章在表格的下一列添加, 所以要先写老文章
    for i in range(infoLength):
        worksheet.write(infoLength - i, 0, allArticleInfo[i][0])
        worksheet.write(infoLength - i, read_time, allArticleInfo[i][1])

    #再次解析主页 得到总访问量 和 总排名
    html = get_page_source("https://blog.csdn.net/qq874455953")
    soup = BeautifulSoup(html, 'html.parser')
    totalReadBar = soup.find('div', attrs={'class' : 'grade-box clearfix'})

    #保存表格
    #得到总访问量
    totalReadCount = totalReadBar.contents[3].dd.attrs['title']
    #得到总排名
    totalReadRank = totalReadBar.contents[7].attrs['title']

    worksheet.write(infoLength + 1 ,read_time, totalReadCount)
    worksheet.write(infoLength + 2 ,read_time, totalReadRank)
    worksheet.write(infoLength + 1 ,0, "总访问量")
    worksheet.write(infoLength + 2 ,0, "总排名")

    excel.save('ReadRecord.xls')


if __name__=="__main__":
    main()

总结

最后你可以把这个代码挂到服务器上, 然后每天定时运行一次,就可以看到你的具体文章的访问量变化了!

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值