2024年Python最新从零开始的 Python 爬虫速成指南_从零 爬虫一个网站


再次运行就可以看到输出你坛星际区第一页所有帖子的标题和url了。


## 递归


接下来我们要抓取每一个帖子的内容。这里需要用到python的yield。



yield Request(url=url, callback=self.parse_topic)


此处会告诉scrapy去抓取这个url,然后把抓回来的页面用指定的parse\_topic函数进行解析。


至此我们需要定义一个新的函数来分析一个帖子里的内容。


完整的代码如下:



import scrapy
from scrapy import Selector
from scrapy import Request

class NgaSpider(scrapy.Spider):
name = “NgaSpider”
host = “http://bbs.ngacn.cc/”
# 这个例子中只指定了一个页面作为爬取的起始url
# 当然从数据库或者文件或者什么其他地方读取起始url也是可以的
start_urls = [
“http://bbs.ngacn.cc/thread.php?fid=406”,
]

# 爬虫的入口,可以在此进行一些初始化工作,比如从某个文件或者数据库读入起始url
def start_requests(self):
    for url in self.start_urls:
        # 此处将起始url加入scrapy的待爬取队列,并指定解析函数
        # scrapy会自行调度,并访问该url然后把内容拿回来
        yield Request(url=url, callback=self.parse_page)

# 版面解析函数,解析一个版面上的帖子的标题和地址
def parse_page(self, response):
    selector = Selector(response)
    content_list = selector.xpath("//*[@class='topic']")
    for content in content_list:
        topic = content.xpath('string(.)').extract_first()
        print topic
        url = self.host + content.xpath('@href').extract_first()
        print url
        # 此处,将解析出的帖子地址加入待爬取队列,并指定解析函数
        yield Request(url=url, callback=self.parse_topic)
     # 可以在此处解析翻页信息,从而实现爬取版区的多个页面

# 帖子的解析函数,解析一个帖子的每一楼的内容
def parse_topic(self, response):
    selector = Selector(response)
    content_list = selector.xpath("//*[@class='postcontent ubbcode']")
    for content in content_list:
        content = content.xpath('string(.)').extract_first()
        print content
    # 可以在此处解析翻页信息,从而实现爬取帖子的多个页面

到此为止,这个爬虫可以爬取你坛第一页所有的帖子的标题,并爬取每个帖子里第一页的每一层楼的内容。爬取多个页面的原理相同,注意解析翻页的url地址、设定终止条件、指定好对应的页面解析函数即可。


## Pipelines——管道


此处是对已抓取、解析后的内容的处理,可以通过管道写入本地文件、数据库。


#### 0.定义一个Item


在miao文件夹中创建一个items.py文件。



from scrapy import Item, Field

class TopicItem(Item):
url = Field()
title = Field()
author = Field()

class ContentItem(Item):
url = Field()
content = Field()
author = Field()


此处我们定义了两个简单的class来描述我们爬取的结果。


#### 1. 写一个处理方法


在miao文件夹下面找到那个pipelines.py文件,scrapy之前应该已经自动生成好了。


我们可以在此建一个处理方法。



class FilePipeline(object):

## 爬虫的分析结果都会由scrapy交给此函数处理
def process_item(self, item, spider):
    if isinstance(item, TopicItem):
        ## 在此可进行文件写入、数据库写入等操作
        pass
    if isinstance(item, ContentItem):
        ## 在此可进行文件写入、数据库写入等操作
        pass
    ## ... 
    return item

#### 2.在爬虫中调用这个处理方法。


要调用这个方法我们只需在爬虫中调用即可,例如原先的内容处理函数可改为:



def parse_topic(self, response):
    selector = Selector(response)
    content_list = selector.xpath("//*[@class='postcontent ubbcode']")
    for content in content_list:
        content = content.xpath('string(.)').extract_first()
        ## 以上是原内容
        ## 创建个ContentItem对象把我们爬取的东西放进去
        item = ContentItem()
        item["url"] = response.url
        item["content"] = content
        item["author"] = "" ## 略
        ## 这样调用就可以了
        ## scrapy会把这个item交给我们刚刚写的FilePipeline来处理
        yield item

#### 3.在配置文件里指定这个pipeline


找到settings.py文件,在里面加入



ITEM_PIPELINES = {
‘miao.pipelines.FilePipeline’: 400,
}


这样在爬虫里调用



yield item


的时候都会由经这个FilePipeline来处理。后面的数字400表示的是优先级。  
 可以在此配置多个Pipeline,scrapy会根据优先级,把item依次交给各个item来处理,每个处理完的结果会传递给下一个pipeline来处理。  
 可以这样配置多个pipeline:



ITEM_PIPELINES = {
‘miao.pipelines.Pipeline00’: 400,
‘miao.pipelines.Pipeline01’: 401,
‘miao.pipelines.Pipeline02’: 402,
‘miao.pipelines.Pipeline03’: 403,
## …
}


## Middleware——中间件


通过Middleware我们可以对请求信息作出一些修改,比如常用的设置UA、代理、登录信息等等都可以通过Middleware来配置。


#### 0.Middleware的配置


与pipeline的配置类似,在setting.py中加入Middleware的名字,例如



DOWNLOADER_MIDDLEWARES = {
“miao.middleware.UserAgentMiddleware”: 401,
“miao.middleware.ProxyMiddleware”: 402,
}


#### 1.破网站查UA, 我要换UA


某些网站不带UA是不让访问的。在miao文件夹下面建立一个middleware.py



import random

agents = [
“Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5”,
“Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9”,
“Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7”,
“Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14”,
“Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14”,
“Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20”,
“Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27”,
“Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1”,
]

class UserAgentMiddleware(object):

def process_request(self, request, spider):
    agent = random.choice(agents)
    request.headers["User-Agent"] = agent

这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。


#### 2.破网站封IP,我要用代理


比如本地127.0.0.1开启了一个8123端口的代理,同样可以通过中间件配置让爬虫通过这个代理来对目标网站进行爬取。同样在middleware.py中加入:



class ProxyMiddleware(object):

def process_request(self, request, spider): 
    # 此处填写你自己的代理
    # 如果是买的代理的话可以去用API获取代理列表然后随机选择一个
    proxy = "http://127.0.0.1:8123"
    request.meta["proxy"] = proxy

很多网站会对访问次数进行限制,如果访问频率过高的话会临时禁封IP。如果需要的话可以从网上购买IP,一般服务商会提供一个API来获取当前可用的IP池,选一个填到这里就好。


## 一些常用配置


在settings.py中的一些常用配置



间隔时间,单位秒。指明scrapy每两个请求之间的间隔。

DOWNLOAD_DELAY = 5

当访问异常时是否进行重试

RETRY_ENABLED = True

当遇到以下http状态码时进行重试

RETRY_HTTP_CODES = [500, 502, 503, 504, 400, 403, 404, 408]

重试次数

RETRY_TIMES = 5

Pipeline的并发数。同时最多可以有多少个Pipeline来处理item

CONCURRENT_ITEMS = 200

并发请求的最大数

CONCURRENT_REQUESTS = 100

对一个网站的最大并发数

CONCURRENT_REQUESTS_PER_DOMAIN = 50

对一个IP的最大并发数

CONCURRENT_REQUESTS_PER_IP = 50


## 我就是要用Pycharm


如果非要用Pycharm作为开发调试工具的话可以在运行配置里进行如下配置:  
 Configuration页面:  
 Script填你的scrapy的cmdline.py路径,比如我的是



/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py


然后在Scrpit parameters中填爬虫的名字,本例中即为:



crawl NgaSpider


最后是Working diretory,找到你的settings.py文件,填这个文件所在的目录。  
 示例:


![img](https://img-blog.csdnimg.cn/img_convert/590cd2885e4c6d1eb4f5232206c5023f.png)  
 按小绿箭头就可以愉快地调试了。


**读者福利:知道你对Python感兴趣,便准备了这套python学习资料**



> 
> 👉[[[CSDN大礼包:《python兼职资源&全套学习资料》免费分享]]]( )(**安全链接,放心点击**)
> 
> 


**一、Python所有方向的学习路线**

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

![img](https://img-blog.csdnimg.cn/1d40facda2b84990b8e1743f5487d455.png)  
![img](https://img-blog.csdnimg.cn/0fc11d4a31bd431dbf124f67f1749046.png)

**二、Python必备开发工具**

工具都帮大家整理好了,安装就可直接上手!![img](https://img-blog.csdnimg.cn/ff266f529c6a46c4bc28e5f895dec647.gif#pic_center)

**三、最新Python学习笔记**

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

![img](https://img-blog.csdnimg.cn/6d414e9f494742db8bcc3fa312200539.png)

**四、Python视频合集**

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

![img](https://img-blog.csdnimg.cn/a806d9b941c645858c61d161aec43789.png)

**五、实战案例**

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。![img](https://img-blog.csdnimg.cn/a353983317b14d3c8856824a0d6186c1.png)

**六、面试宝典**

![在这里插入图片描述](https://img-blog.csdnimg.cn/97c454a3e5b4439b8600b50011cc8fe4.png)

![在这里插入图片描述](https://img-blog.csdnimg.cn/111f5462e7df433b981dc2430bb9ad39.png)

###### **简历模板**![在这里插入图片描述](https://img-blog.csdnimg.cn/646863996ac44da8af500c049bb72fbd.png#pic_center)




**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化学习资料的朋友,可以戳这里无偿获取](https://bbs.csdn.net/topics/618317507)**

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
  • 12
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值