Python 爬虫 之 阅读呼叫转移(一)

    你是否苦恼于网上无法下载的“小说在线阅读”内容?或是某些文章的内容让你很有收藏的冲动,却找不到一个下载的链接?是不是有种自己写个程序把全部搞定的冲动?是不是学了 python,想要找点东西大展拳脚,告诉别人“哥可是很牛逼的!”?那就让我们开始吧! 哈哈~

    好吧,我就是最近写 Yii 写多了,想找点东西调剂一下.... = =


    本项目以研究为目的,所有版权问题我们都是站在作者的一边,以看盗版小说为目的的读者们请自行面壁!

    说了这么多,我们要做的就是把小说正文的内容从网页上爬下来,我们的研究对象是全本小说网....再次声明,不对任何版权负责....

    一开始先做最基础的内容,就是把某一章的内容抓取下来。


    环境:Ubuntu, Python 2.7


    基础知识

    这个程序涉及到的知识点有几个,在这里列出来,不详细讲,有疑问的直接百度会有一堆的。

    1.urllib2 模块的 request 对像来设置 HTTP 请求,包括抓取的 url,和伪装浏览器的代理。然后就是 urlopen 和 read 方法,都很好理解。

    2.chardet 模块,用于检测网页的编码。在网页上抓取数据很容易遇到乱码的问题,为了判断网页是 gtk 编码还是 utf-8 ,所以用 chardet 的 detect 函数进行检测。在用 Windows 的同学可以在这里 http://download.csdn.net/detail/jcjc918/8231371 下载,解压到 python 的 lib 目录下就好。

    3. decode 函数将字符串从某种编码转为 unicode 字符,而 encode 把 unicode 字符转为指定编码格式的字符串。

     4. re 模块正则表达式的应用。search 函数可以找到和正则表达式对应匹配的一项,而 replace 则是把匹配到的字符串替换。


    思路分析

    我们选取的 url 是 http://www.quanben.com/xiaoshuo/0/910/59302.html,斗罗大陆的第一章。你可以查看网页的源代码,会发现只有一个 content 标签包含了所有章节的内容,所以可以用正则把 content 的标签匹配到,抓取下来。试着把这一部分内容打印出来,会发现很多 <br /> 和 &nbsp,<br /> 要替换成换行符, &nbsp 是网页中的占位符,即空格,替换成空格就好。这样一章的内容就很美观的出来了。完整起见,同样用正则把标题爬下来。

# -*- coding: utf-8 -*-

import urllib2
import re
import chardet


class Book_Spider:

    def __init__(self):
        self.pages = []

    # 抓取一个章节
    def GetPage(self):
        myUrl = "http://www.quanben.com/xiaoshuo/0/910/59302.html";
        user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
        headers = { 'User-Agent' : user_agent }
        request = urllib2.Request(myUrl, headers = headers)
        myResponse = urllib2.urlopen(request)
        myPage = myResponse.read()

        #先检测网页的字符编码,最后统一转为 utf-8
        charset = chardet.detect(myPage)
        charset = charset['encoding']
        if charset == 'utf-8' or charset == 'UTF-8':
            myPage = myPage
        else:
            myPage = myPage.decode('gb2312','ignore').encode('utf-8')
        unicodePage = myPage.decode("utf-8")

        try:
            #抓取标题
            my_title = re.search('<h1>(.*?)</h1>',unicodePage,re.S)
            my_title = my_title.group(1)
        except:
            print '标题 HTML 变化,请重新分析!'
            return False
        
        try:
            #抓取章节内容
            my_content = re.search('<div.*?id="htmlContent" class="contentbox">(.*?)<div',unicodePage,re.S)
            my_content = my_content.group(1)
        except:
            print "内容 HTML 变化,请重新分析!"
            return False
        
        #替换正文中的网页代码
        my_content = my_content.replace("<br />","\n")
        my_content = my_content.replace(" "," ")

        #用字典存储一章的标题和内容
        onePage = {'title':my_title,'content':my_content}
        return onePage


    # 用于加载章节
    def LoadPage(self):
        try:
            # 获取新的章节
            myPage = self.GetPage()
            
            if myPage == False:
                print '抓取失败!'
                return False
            
            self.pages.append(myPage)
        except:
            print '无法连接服务器!'

    #显示一章
    def ShowPage(self,curPage):
            print curPage['title']
            print curPage['content']

    def Start(self):
        print u'开始阅读......\n'
        #把这一页加载进来
        self.LoadPage()
        # 如果self的pages数组中存有元素
        if self.pages:
            nowPage = self.pages[0]
            self.ShowPage(nowPage)


#----------- 程序的入口处 -----------
print u"""
---------------------------------------
   程序:阅读呼叫转移
   版本:0.1
   作者:angryrookie
   日期:2014-07-05
   语言:Python 2.7
   功能:按下回车浏览章节
---------------------------------------
"""

print u'请按下回车:'
raw_input()
myBook = Book_Spider()
myBook.Start()

程序运行完在我这里可是很好看的,不信请看:^_^


  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值