Python写的一个爬虫程序

用Python写的爬虫程序,可以爬小说

__author__ = 'zzxuan'
import urllib.request
import sys,os,string
from html.parser import HTMLParser


url = "http://book.zongheng.com/chapter/309372/5304510.html"
title='爬小说'


class TitleParser(HTMLParser):
    def __init__(self):
        self.datas=[]
        self.flag=None
        self.start=None
        self.tit=None
        self.next=None
        HTMLParser.__init__(self)
    def handle_starttag(self, tag, attrs ):
        #print(tag,attrs)
        if tag=='title':
            self.tit=True
        if attrs.count(('id', 'nextChapterButton')):
            self.next=attrs[2][1]
        if attrs.count(('id', 'chapterContent'))>0:
            self.start=True
        if self.start==True:
            if tag=='p' :
                self.flag=True
            else:
                self.flag=False
    def handle_data(self,data):
        if self.tit:
            self.datas.append(data)
            self.tit=False
        if self.flag and self.start:
            self.datas.append(data)
    def handle_endtag(self,tag):
        if self.start and tag=='div':
            self.start=False
def crawdata(url):
    opener = urllib.request.build_opener()
    #opener.addheaders = [headers]
    data = opener.open(url).read()
    data=data.decode('utf-8', "ignore")
    tp=TitleParser()
    tp.feed(data)
    target=open(title+'.txt','a',encoding='utf-8')
    for l in tp.datas:
        target.write(l+'\r\n')
        #print(l)
    target.close()
    print(tp.next)
    return tp.next


uuu=url
while True:
    uuu=crawdata(uuu)




input()


  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值