Python爬虫,批量下载小说网站上的小说!

爬虫脚本把这个小说网上的几乎所有小说都下载到了本地,一共27000+本小说,一共40G。

 

完整代码:

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
#coding=utf-8 2 import urllib 3 import urllib2 4 import re 5 import os 6  7 webroot = 'http://www.xuanshu.com' 8  9 for page in range(20,220):10     print '正在下载第'+str(page)+'页小说'11     12     url = 'http://www.xuanshu.com/soft/sort02/index_'+str(page)+'.html'13     headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'  }14     try:15         request = urllib2.Request(url,headers=headers)16         response = urllib2.urlopen(request,timeout=180)17         #print response.read()18     except urllib2.URLError, e:19         if hasattr(e,"code"):20             print e.code21         if hasattr(e,"reason"):22             print e.reason23 24     html = response.read().decode('utf-8')25     #print html26     pattern = re.compile(u'<li>.*?<div class="s">.*?target="_blank">(.*?)</a><br />大小:(.*?)<br>.*?</em><br>更新:(.*?)</div>.*?<a href="(.*?)"><img.*?>(.*?)</a>.*?<div class="u">(.*?)</div>',re.S)27     items = re.findall(pattern,html)28     #print items29 30     for item in items:31         try:32             book_auther = item[0].encode('gbk')33             book_size = item[1].encode('gbk')34             book_updatetime = item[2].encode('gbk')35             book_link = item[3].encode('gbk')36             book_name = item[4].encode('gbk')37             book_note = item[5].encode('gbk')38             39             book_full_link = webroot + book_link    # 构建书的绝对地址40 41             #请求地址42             try:43                 request = urllib2.Request(book_full_link,headers=headers)44                 response = urllib2.urlopen(request,timeout=180)45             except urllib2.URLError, e:46                 if hasattr(e,"code"):47                     print e.code48                 if hasattr(e,"reason"):49                     print e.reason50             html = response.read().decode('utf-8')51             #print html52             pattern = re.compile('<a class="downButton.*?<a class="downButton" href=\'(.*?)\'.*?Txt.*?</a>',re.S)53             down_link = re.findall(pattern,html)54             print book_name55             print down_link56             57             # down txt58             try:59                 request = urllib2.Request(down_link[0].encode('utf-8'),headers=headers)60                 response = urllib2.urlopen(request,timeout=180)61             except urllib2.URLError, e:62                 if hasattr(e,"code"):63                     print e.code64                 if hasattr(e,"reason"):65                     print e.reason66             try:67                 fp = open(book_name+'.txt','w')68             except IOError,e:69                 pattern = re.compile('<strong>.*?>(.*?)<.*?</strong>',re.S)70                 book_name = re.findall(pattern,book_name)71                 fp = open(book_name[0]+'.txt','w')72             print 'start download'73             fp.write(response.read())74             print 'down finish\n'75             fp.close()76         except Exception,e:77             print '该条目解析出现错误,忽略'78             print e79             print ''80             fp = open('error.log','a')81             fp.write('page:'+str(page)+'\n')82             fp.write(item[4].encode('gbk'))83             #fp.write(e)84             fp.write('\nThere is an error in parsing process.\n\n')85             fp.close()

该脚本只定向抓取“选书网”小说站,“玄幻奇幻”分类下的小说。供网友们参考,可自行修改。

写得比较粗糙,勿喷……

爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值