从零开始的 Python 爬虫速成指南

“http://bbs.ngacn.cc/thread.php?fid=406”,
   ]

# 这个是解析函数,如果不特别指明的话,scrapy抓回来的页面会由这个函数进行解析。
   # 对页面的处理和分析工作都在此进行,这个示例里我们只是简单地把页面内容打印出来。
   def parse(self, response):
       print response.body


2.跑一个试试?


  



如果用命令行的话就这样:



cd miao
scrapy crawl NgaSpider


你可以看到爬虫君已经把你坛星际区第一页打印出来了,当然由于没有任何处理,所以混杂着html标签和js脚本都一并打印出来了。


  



解析


  



接下来我们要把刚刚抓下来的页面进行分析,从这坨html和js堆里把这一页的帖子标题提炼出来。


其实解析页面是个体力活,方法多的是,这里只介绍xpath。


  



0.为什么不试试神奇的xpath呢


  



看一下刚才抓下来的那坨东西,或者用chrome浏览器手动打开那个页面然后按F12可以看到页面结构。


每个标题其实都是由这么一个html标签包裹着的。举个例子:



[合作模式] 合作模式修改设想


可以看到href就是这个帖子的地址(当然前面要拼上论坛地址),而这个标签包裹的内容就是帖子的标题了。


于是我们用xpath的绝对定位方法,把class='topic'的部分摘出来。


  



1.看看xpath的效果


  



在最上面加上引用:



from scrapy import Selector


把parse函数改成:



def parse(self, response):
       selector = Selector(response)
       # 在此,xpath会将所有class=topic的标签提取出来,当然这是个list
       # 这个list里的每一个元素都是我们要找的html标签
       content_list = selector.xpath(“//*[@class=‘topic’]”)
       # 遍历这个list,处理每一个标签
       for content in content_list:
           # 此处解析标签,提取出我们需要的帖子标题。
           topic = content.xpath(‘string(.)’).extract_first()
           print topic
           # 此处提取出帖子的url地址。
           url = self.host + content.xpath(‘@href’).extract_first()
           print url


再次运行就可以看到输出你坛星际区第一页所有帖子的标题和url了。


  



**递归**


  



接下来我们要抓取每一个帖子的内容。


  



这里需要用到python的yield。



yield Request(url=url, callback=self.parse_topic)


此处会告诉scrapy去抓取这个url,然后把抓回来的页面用指定的parse\_topic函数进行解析。


  



至此我们需要定义一个新的函数来分析一个帖子里的内容。


  



完整的代码如下:



import scrapy
from scrapy import Selector
from scrapy import Request

class NgaSpider(scrapy.Spider):
   name = “NgaSpider”
   host = “http://bbs.ngacn.cc/”
   # 这个例子中只指定了一个页面作为爬取的起始url
   # 当然从数据库或者文件或者什么其他地方读取起始url也是可以的
   start_urls = [
       “http://bbs.ngacn.cc/thread.php?fid=406”,
   ]

# 爬虫的入口,可以在此进行一些初始化工作,比如从某个文件或者数据库读入起始url
   def start_requests(self):
       for url in self.start_urls:
           # 此处将起始url加入scrapy的待爬取队列,并指定解析函数
           # scrapy会自行调度,并访问该url然后把内容拿回来
           yield Request(url=url, callback=self.parse_page)

# 版面解析函数,解析一个版面上的帖子的标题和地址
   def parse_page(self, response):
       selector = Selector(response)
       content_list = selector.xpath(“//*[@class=‘topic’]”)
       for content in content_list:
           topic = content.xpath(‘string(.)’).extract_first()
           print topic
           url = self.host + content.xpath(‘@href’).extract_first()
           print url
           # 此处,将解析出的帖子地址加入待爬取队列,并指定解析函数
           yield Request(url=url, callback=self.parse_topic)
        # 可以在此处解析翻页信息,从而实现爬取版区的多个页面

# 帖子的解析函数,解析一个帖子的每一楼的内容
   def parse_topic(self, response):
       selector = Selector(response)
       content_list = selector.xpath(“//*[@class=‘postcontent ubbcode’]”)
       for content in content_list:
           content = content.xpath(‘string(.)’).extract_first()
           print content
       # 可以在此处解析翻页信息,从而实现爬取帖子的多个页面


到此为止,这个爬虫可以爬取你坛第一页所有的帖子的标题,并爬取每个帖子里第一页的每一层楼的内容。


爬取多个页面的原理相同,注意解析翻页的url地址、设定终止条件、指定好对应的页面解析函数即可。


  



**Pipelines——管道**


  



此处是对已抓取、解析后的内容的处理,可以通过管道写入本地文件、数据库。


  



0.定义一个Item


  



在miao文件夹中创建一个items.py文件。



from scrapy import Item, Field

class TopicItem(Item):
   url = Field()
   title = Field()
   author = Field()

class ContentItem(Item):
   url = Field()
   content = Field()
   author = Field()


此处我们定义了两个简单的class来描述我们爬取的结果。


  



1. 写一个处理方法


  



在miao文件夹下面找到那个pipelines.py文件,scrapy之前应该已经自动生成好了。


  



我们可以在此建一个处理方法。



from scrapy import Item, Field

class TopicItem(Item):
   url = Field()
   title = Field()
   author = Field()

class ContentItem(Item):
   url = Field()
   content = Field()
   author = Field()


2.在爬虫中调用这个处理方法。


  



要调用这个方法我们只需在爬虫中调用即可,例如原先的内容处理函数可改为:



def parse_topic(self, response):
       selector = Selector(response)
       content_list = selector.xpath(“//*[@class=‘postcontent ubbcode’]”)
       for content in content_list:
           content = content.xpath(‘string(.)’).extract_first()
           ## 以上是原内容
           ## 创建个ContentItem对象把我们爬取的东西放进去
           item = ContentItem()
           item[“url”] = response.url
           item[“content”] = content
           item[“author”] = “” ## 略
           ## 这样调用就可以了
           ## scrapy会把这个item交给我们刚刚写的FilePipeline来处理
           yield item


3.在配置文件里指定这个pipeline


  



找到settings.py文件,在里面加入



ITEM_PIPELINES = {
           ‘miao.pipelines.FilePipeline’: 400,
       }


这样在爬虫里调用



yield item


的时候都会由经这个FilePipeline来处理。后面的数字400表示的是优先级。


可以在此配置多个Pipeline,scrapy会根据优先级,把item依次交给各个item来处理,每个处理完的结果会传递给下一个pipeline来处理。


  



可以这样配置多个pipeline:



ITEM_PIPELINES = {
           ‘miao.pipelines.Pipeline00’: 400,
           ‘miao.pipelines.Pipeline01’: 401,
           ‘miao.pipelines.Pipeline02’: 402,
           ‘miao.pipelines.Pipeline03’: 403,
           ## …
       }


**Middleware——中间件**


  



通过Middleware我们可以对请求信息作出一些修改,比如常用的设置UA、代理、登录信息等等都可以通过Middleware来配置。


  



0.Middleware的配置


  



与pipeline的配置类似,在setting.py中加入Middleware的名字,例如



DOWNLOADER_MIDDLEWARES = {
           “miao.middleware.UserAgentMiddleware”: 401,
           “miao.middleware.ProxyMiddleware”: 402,
       }


1.破网站查UA, 我要换UA


  



某些网站不带UA是不让访问的。


  



在miao文件夹下面建立一个middleware.py



import random

agents = [
   “Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5”,
   “Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9”,
   “Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7”,
   “Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14”,
   “Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14”,
   “Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20”,
   “Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27”,
   “Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1”,
]

class UserAgentMiddleware(object):

def process_request(self, request, spider):
       agent = random.choice(agents)
       request.headers[“User-Agent”] = agent


这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。


  



2.破网站封IP,我要用代理


  


文末有福利领取哦~
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

👉**一、Python所有方向的学习路线**

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。![img](https://img-blog.csdnimg.cn/c67c0f87cf9343879a1278dfb067f802.png)

👉**二、Python必备开发工具**

![img](https://img-blog.csdnimg.cn/757ca3f717df4825b7d90a11cad93bc7.png)  
👉**三、Python视频合集**

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。  
![img](https://img-blog.csdnimg.cn/31066dd7f1d245159f21623d9efafa68.png)

👉 **四、实战案例**

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。**(文末领读者福利)**  
![img](https://img-blog.csdnimg.cn/e78afb3dcb8e4da3bae5b6ffb9c07ec7.png)

👉**五、Python练习题**

检查学习结果。  
![img](https://img-blog.csdnimg.cn/280da06969e54cf180f4904270636b8e.png)

👉**六、面试资料**

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。  
![img](https://img-blog.csdnimg.cn/a9d7c35e6919437a988883d84dcc5e58.png)

![img](https://img-blog.csdnimg.cn/5db8141418d544d3a8e9da4805b1a3f9.png)

👉因篇幅有限,仅展示部分资料,这份完整版的Python全套学习资料已经上传




**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化学习资料的朋友,可以戳这里无偿获取](https://bbs.csdn.net/topics/618317507)**

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值