用Python爬虫爬取豆瓣电影、读书Top250并排序

本文介绍了如何使用Python爬虫爬取豆瓣电影和读书Top250榜单,并按照用户评分进行排序。通过解析网页内容,提取书籍和电影信息,然后生成HTML文件展示排序后的结果。作者提供了完整的代码框架和正则表达式示例,以帮助读者理解爬虫实现过程。
摘要由CSDN通过智能技术生成

更新:已更新豆瓣电影Top250的脚本及网站

概述

经常用豆瓣读书的童鞋应该知道,豆瓣Top250用的是综合排序,除用户评分之外还考虑了很多比如是否畅销、点击量等等,这也就导致了一些近年来评分不高的畅销书在这个排行榜上高高在上远比一些经典名著排名还高,于是在这里打算重新给Top250纯按照用户打分排一下序。思路就是:先用爬虫爬下来豆瓣Top250的所有书目,然后存到本地之后进行排序,最后再做一个网站把排完序的书单重新挂上去。

先挂上成品网站:
豆瓣读书Top250逆序 | Alanzjl
豆瓣电影Top250逆序 | Alanzjl
这个网站完全按照豆瓣原网站制作,html代码都是直接扒豆瓣的。或者作为我的个人网站内嵌使用:
豆瓣读书Top250 | Homepage of Alan
豆瓣电影Top250 | Homepage of Alan

网站示例
可以看到已经按照打分排序。

OK下面进入正文

代码

先说一下大体流程:
爬虫爬取信息->排序->生成Html文件

从爬取信息开始。
先打开豆瓣Top250网站,看看其URL:http://book.douban.com/top250?start=0,点一下“下一页”就可以看到跳转到了start=25的地址.哈,分析一下就可以知道每页显示25本书,正好10页,那就循环遍历10个页面就可以了。那要是不是25的整数倍呢?start=1呢?打开一看也是可以的,网站上面显示的第一本书就变成了第二本(start=0)是第一本,也就是说只要我们从start=0遍历到start=250这样每本书就是当前URL的第一本书。对于爬虫来讲这两种遍历方式(每次跳25个,爬虫爬取每页25本书以及每次跳一个,爬虫爬取得每页第一本书)都是可以的,但是实践发现前者使用的时候经常会有遗漏,比如这一次爬全了,下一次突然就不全了这样,也不太清楚是怎么回事就用第二种方法吧。

爬虫主要用到两个Python库,urllib(打开网站)和re(正则表达式)库,先写一下整体代码框架:

    import re
    import urllib

    class book:
                #book class, used as container
        title = ""
        author = ""
        url = ""
        img = ""
        rate = 0.0

        def __init__(self, Title, Author, Url, Img, Rate):
            self.title = Title
            self.author = Author
            self.url = Url
            self.img = Img
            self.rate = Rate

        def content(self):
            return "Title:%s\tAuthor:%s\tUrl:%s\tImg:%s\tRate:%s\n"\
                %(self.title,self.author,self.url,self.img,self.rate)

    def makeHtml(blist, path):  
            #generate html file

    def run():
        count = 0
        while count < 250:
            url = 'http://book.douban.com/top250?start=%d'%count
            page = urllib.urlopen(url).read()
            count += 1

    bookList = []
    run()
    bookListSorted = sorted(bookList, key=lambda ele:ele.rate, reverse=1)
    makeHtml(bookListSorted,'DoubanBook.html');

大概就是这样了,解释一下每个函数/类的作用:

book类:存储每本书需要用到的信息,有title、author、豆瓣链接、图片链接、rate

makeHtml函数:根据传入的参数(blist书目列表以及生成html file位置)生成html

run函数:遍历250本书,进行正则表达式信息提取

先从run()说起
首先一个count=0记录遍历的书目序号,然后进入循环,url = 'http://book.douban.com/top250?start=%d'%count生成当前需要遍历书目的url地址,使用page = urllib.urlopen(url).read()保存这个页面的内容。可以print一下这个page的内容,就是html文件。

然后进行信息提取。以题目为例,从豆瓣网站中找到任意一本书的题目,
re title
(可以在chrome中使用开发者工具,然后点开发者工具中左上角的小箭头,这样鼠标移到页面中的哪一个位置就可以自动在源代码中标记出来,移到题目处就可以看到源代码)
单独复制出来:

    <a href="http://book.douban.com/subject/1084336/"
    onclick=&#34;moreurl(this,{i:&#39;0&#39;})&#34;
    title="小王子">小王子</a>

多试几个就可以看到,每本书的题目在源代码的定义方式都是:

    &#34; title="题目">题目</a>

保留前面的&#34只是为了缩小范围提高精确度,这样,我们就可以写出其正则表达式:

(?<=&#34; title=").*?(?=")
简单分析一下,(?<=&#34; title=")表示前缀是&#34; title=",然后跟.*?表示满足条件的尽量少的任意字符,然后(?=")表示后缀为",连起来就是满足前缀和后缀要求的中间尽量少的字符集。相似的方法,我们可以找出其他信息的正则表达式表述。就是:

    titlePat = re.compile(r'(?<=&#34; title=").*?(?=")')
    authorPat = re.compile(r'(?<=<p class="pl">).
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值