scrapy框架 爬取重庆工程学院

scrapy框架 爬取重庆工程学院

目的:爬取重庆工程学院 中的管理学院学院动态

百度搜索重庆工程学院,看到如图所示
在这里插入图片描述
在这里插入图片描述

因为我使用scarpy框架,不知道如何创建项目的,可以看看我之前的文章(简单的理了一下步奏)

Scrapy 架构

下图是 Scrapy 框架的组成结构,并从数据流的角度揭示 Scrapy 的工作原理
在这里插入图片描述
在这里插入图片描述
对于用户来说, Spider 是最核心的组件, Scrap y 爬虫开发是围绕实现 Spider 展开 的。接下来,看一下在框架中的数据流。Request 和 Response 是 HTTP 协议中的术语, 即 HTTP 请求和 HTTP 响应,Scrap y 框架中定义了相应的 Request 和 Response 类,这里的 Item 代表 Spider 从页面中爬取的一项数据。 最后,我们来说明以上几种对象在框架中的流动过程。

1、当 SPIDER 要爬取某 URL 地址的页面时, 需使用该 URL 构造一个 Request 对象, 提 交给 ENGINE(图 1)。

2、Request对象随后进入SCHEDULER按某种算法进行排队,之后的某个时刻SCHEDULER 将其出队, 送往 DOWNLOADER(图中的 2、3、4)

3、DOWNLOADER 根据 Request 对象中的 URL 地址发送一次 HTTP 请求到网站服务器, 之 后用服务器返回的 HTTP 响应构造出一个 Response 对象, 其中包含页面的 HTML 文本 (图 2 中的 5)

4、Response 对象最终会被递送给 SPIDER 的页面解析函数(构造 Request 对象时指定) 进行处理,页面解析函数从页面中提取数据, 封装成 Item 后提交给 PIPELINES 进行处理, 最终可能由 Exporter 以某种数据格式写入文件(CSV、json 等);另一方面页面解析函数还 从页面中提取链接 url,构造出新的 Request 对象提交给 Engine(图 6,7,8)。

理解了框架中的数据流,也就理解了 Scrapy 爬虫的工作原理。如果把框架中的组件比 作人体的各个器官,Request 和 Response 对象便是血液,Item 则是代谢产物

(一)首先分析页面

通过工具,我们可以发现我们需要的内容位于 li 标签当中,是一条一条的数据,其中的信息包含有时间、标题和详情页的链接,但是我们发现了一个问题,就是超链接的href属性并不完全,所以当我们需要爬取更多详情页的信息时,需要将链接补充完整。在这里插入图片描述

我们可以看出,在第一阶段我们可以爬取到的有三个实体,链接(url),时间(date),标题(title),因为后面要做详情页的爬取,所以我选择在详情页的时候在爬取标题,当然在这爬取是一样的,只有你的XPath是找对了是没有问题。

我使用的是谷歌浏览器,安装了一个插件(XPath Helper),可以自己去下载哟,下载之后解压,在浏览器的右上角,点击下方如图所示:
在这里插入图片描述
再 点击 “更多程序”—>“扩展程序” —>将“开发者工具”打开—>“加载已解压的扩展程序”

选择好了就可以用了哟!!!!

接下来就是重头戏哟!!!

创建爬虫项目和文件

我使用的是 Anconda里面的Spyder,使用pycharm也是可以的,只要自己熟悉就可以啦~~~~

我还是写下创建项目的命令

scrapy startproject cqie

创建文件:

cd cqie  #进入项目
scrapy genspider cqiel  cqie.edu.cn  # cqiel是爬虫名  cqie.edu.cn是域名,千万不能写成http://www.cqie.edu.cn/,不了解域名的,可以去学习学习...

接下来就是编写代码了:

首先是cqiel.py文件
def parse(self, response):
        
        item={}
        # print(response.text)
        entryList=response.xpath("//div[@class='sortlist']/dl//li")
        # print(len(entryList))
        
        for i in entryList:
            item['url'] = response.urljoin(i.xpath("./a/@href").get())
            item['date'] = i.xpath("./span/text()").get()
            #print(item)
            yield item
深层网页爬取:

在这里插入图片描述
在这里插入图片描述
scrapy.Request:在这里插入图片描述
常用参数说明
Url:
Callback:回调函数,执行完成当前方法后调用
Meta:元数据,用于数据传递

def parse_detail(self, response):
        item=response.meta['item']
        item['title']=response.xpath("//div[@id='text']/h1/text()").get()
        item['laiyuan']=response.xpath("//div[@id='text']/h3/text()").get().split()[1].replace("来源:","")
        item['author']=response.xpath("//div[@id='text']/h3").xpath("substring-before(.,'来源:')").get().replace("发布人:","").strip(' ')
        #获取内容
        con=response.xpath("//div[@id='showcontent']").xpath('string(.)').extract()
        content=""
        for i in con:
            content=content.join(i.split())
        item['content']=content

        
        print(item)
        yield item

完整代码:

import scrapy
import copy
# from cqie.items import CqieItem
class CqielSpider(scrapy.Spider):
    name = 'cqiel'
    allowed_domains = ['cqie.edu.cn']
    start_urls = ['http://gl.cqie.edu.cn/html/11/xydt']  #管理学院

    def parse(self, response):
        
        item={}
        
        # print(response.text)
        entryList=response.xpath("//div[@class='sortlist']/dl//li")
        # print(len(entryList))
        
        for i in entryList:
            item['url'] = response.urljoin(i.xpath("./a/@href").get())
            item['date'] = i.xpath("./span/text()").get()
            # print(item)
            # yield item
            yield scrapy.Request(item['url'],meta={'item':copy.deepcopy(item)},callback=self.parse_detail)
            # break
            
        nextpage = response.xpath('//*[@class="page"]//a[contains(text(),"下一页")]/@href').get()  # 获取下一页
        if nextpage:
            nextpage = response.urljoin(nextpage)
            yield scrapy.Request(nextpage, callback=self.parse, dont_filter=True)
            

    def parse_detail(self, response):
        item=response.meta['item']
        item['title']=response.xpath("//div[@id='text']/h1/text()").get()
        item['laiyuan']=response.xpath("//div[@id='text']/h3/text()").get().split()[1].replace("来源:","")
        item['author']=response.xpath("//div[@id='text']/h3").xpath("substring-before(.,'来源:')").get().replace("发布人:","").strip(' ')
        #获取内容
        con=response.xpath("//div[@id='showcontent']").xpath('string(.)').extract()
        content=""
        for i in con:
            content=content.join(i.split())
        item['content']=content

        
        print(item)
        yield item
        

Scrapy若干问题:

1.Scrapy crawl cqiel -o cqie.csv 输出列顺序混乱

解决方案:Settings配置文件中增加
FEED_EXPORT_FIELDS 后指定输出列,如果不指定就不会输出
FEED_EXPORT_FIELDS = [“title”,“url”,“date”]

2.Scrapy crawl cqiel -o cqie.csv 输出的CSV文件Excel打开乱码

解决方案:Settings配置文件中增加

FEED_EXPORT_ENCODING=“GBK”

将数据存进数据库

Item Pipeline 数据管道,负责对爬取到的数据进行处理。除了使用使用-o 参数将 item 的结果输出为 CSV、Json、XML 等类型的数据外,将数据存储在数据库中也是常用的方式之一。下面以豆 瓣电影案例为例,说明如何将数据保存在 MySQL 数据库中。

mysql

1.安装mysql
2.创建表结构

create table cqie(
url varchar(50),
title varchar(50),
content varchar(200)
)

3.配置 mysql 数据库的链接参数 在settins.py文件中配置mysql数据库中必要的链接参数。包括
主机名(MYSQL_DB_HOST )、端口(MYSQL_DB_PORT)、数据库名称(MYSQL_DB_NAME)、连接用户(MYSQL_DB_USER)、 密码(MYSQL_DB_PASSWORD)。

MYSQL_DB_HOST="服务器 IP" 
MYSQL_DB_PORT=3306 #端口 
MYSQL_DB_NAME="数据库名称"
MYSQL_DB_USER="用户名" 
MYSQL_DB_PASSWORD="密码"

4.创建 pipeline 类
在 pipelines.py 中 添 加 class 。 需 要 注 意 的 是 类 中 的 方 法 名 open_spider 、 process_item、close_spider 必须固定,如方法名错误可以正常运行,但不会有数据正常 插入。类名读者可以自行修改。模板代码如下:

class MySQLPipeline: 
	#开始爬取数据之前被调用 
	#读取配置文件,初始化连接以及游标 
    def open_spider(self, spider): 
        pass 
    #每解析完一个 item 调用 
    #插入数据 
    def process_item(self, item, spider): 
    	pass 
    #爬取完全部数据后被调用 
    #提交数据,释放连接 
    def close_spider(self, spider): 
    	pass

5.修改配置文件 Settings,加入到数据清洗的管道
在 Settings.py 中找到 ITEM_PIPELINES 后修正配置,否则无法运行。

ITEM_PIPELINES = { 
    # 'scrapy.pipelines.images.ImagesPipeline': 1, 
    'cqie.pipelines.MySQLPipeline':200, #项目名称.pipelines.类名
    'cqie.pipelines.CqiePipeline_mongo':200 #项目名称.pipelines.类名 
}

6.open_spider 方法
open_spider 方法在开始爬取数据之前被调用,在该方法中通过 spider.settings 对象 读取用户在配置文件中指定的数据库,然后建立与数据库的连接,将得到的 Connection 对 象和 Cursor 对象分别赋值给 self.db_conn 和 self.db_cur,以便之后使用。

 #开始爬取数据之前被调用
    #读取配置文件,初始化连接以及游标
    def open_spider(self, spider):
        host=spider.settings.get("MYSQL_DB_HOST")
        port=spider.settings.get("MYSQL_DB_PORT")
        name = spider.settings.get("MYSQL_DB_NAME")
        user = spider.settings.get("MYSQL_DB_USER")
        pwd = spider.settings.get("MYSQL_DB_PASSWORD")
        #print(host,port,name,user,password)
        self.db_conn = pymysql.connect(host=host, port=port,
                                        db=name,user=user,password=pwd)
        self.db_cur=self.db_conn.cursor()

也可以像我这样设置数据库那些

 #开始爬取数据之前被调用
    #读取配置文件,初始化连接以及游标
    def open_spider(self, spider):
        host=spider.settings.get("MYSQL_DB_HOST","10.8.16.231")
        port=spider.settings.get("MYSQL_DB_PORT",3306)
        name = spider.settings.get("MYSQL_DB_NAME", "cq")
        user = spider.settings.get("MYSQL_DB_USER", "cqie")
        pwd = spider.settings.get("MYSQL_DB_PASSWORD", "cqie123")
        #print(host,port,name,user,password)
        self.db_conn = pymysql.connect(host=host, port=port,
                                        db=name,user=user,password=pwd)
        self.db_cur=self.db_conn.cursor()

7.process_item 方法

process_item 方法处理爬取到的每一项数据,执行插入数据操作的 SQL 语句。但需要 注意的是,在 process_item 方法中并没有调用连接对象的 commit 方法,也就意味着此时数 据并没有实际写入数据库。如果每插入一条数据都调用一次 commit 方法,会严重降低程序 执行效率,并且我们对数据插入数据库的实时性并没有什么要求,因此可以在爬取完全部数 据后再调用 commit 方法。
%s 为占位符,不能加单引号或双引号。

 def process_item(self, item, spider):
        values = (
            item["url"],
            item["title"],
            item["author"]
        )
        sql = "insert into cqie(url,title,author) values(%s,%s,%s)"
        # print(sql)
    
        self.db_cur.execute(sql, values)
        
        return item

8.close_spider 方法
close_spider 方法在爬取完全部数据后被调用,在该方法中,调用连接对象的 commit 方法将之前所有的插入数据操作一次性提交给数据库,然后关闭连接对象。

 #爬取完全部数据后被调用
 #提交数据,释放连接
def close_spider(self,spider): 
	self.db_conn.commit() 
	self.db_cur.close() 
	self.db_conn.close()

爬取结果:
在这里插入图片描述

mongodb

要在下图中安装pymongo,命令为

pip install pymongo

在这里插入图片描述

1.安装mongodb

2.在settings.py文件中添加数据库的配置项

MONGO_HOST = "127.0.0.1"  # 主机IP
MONGO_PORT = 27017  # 端口号
MONGO_DB = "cq"  # 库名 
MONGO_COLL = "cqie"  # collection名
MONGO_USER = "root"
MONGO_PSW = "123456"

首先需要在mongodb中授权,在将数据写入mongodb中时,要将mongodb启动。需要找到mongdb的路径,例如:C:\Program Files\MongoDB\Server\4.2\bin,输入mongo,就可以了
在这里插入图片描述
之后需要授权,否则会报权限不够:

> use cq
> db.createUser(
     {
       user:"root",
       pwd:"123456",
       roles:[{role:"root",db:"cq"}]
     }
  )
class MongoPipeline(object):
    # 实现保存到mongo数据库的类,
    
    def __init__(self, mongo_uri, db_name, db_user, db_pass):
        self.mongo_uri = mongo_uri
        self.db_name = db_name
        self.db_user = db_user
        self.db_pass = db_pass
 
    @classmethod
    def from_crawler(cls, crawler):
        # scrapy 为我们访问settings提供了这样的一个方法,这里,
        # 我们需要从 settings.py 文件中,取得数据库的URI和数据库名称
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI','localhost'),
            mongo_db=crawler.settings.get('MONGO_DB','cq'),
            account = crawler.settings.get('USERNAME','root'),
            passwd = crawler.settings.get('PWD','123456'))
           
    def open_spider(self, spider):  # 爬虫启动时调用,连接到数据库
        uri = 'mongodb://%s:%s@%s:27017/?authSource=cq' % (self.account, parse.quote_plus(self.passwd),self.mongo_uri)
        #print(uri)
        self.client = pymongo.MongoClient(uri)
        self.db = self.client[self.mongo_db]
        print(self.mongo_db)
	
	def process_item(self, item, spider):
		collection = 'cqie'  # mongo 数据库的 collection 名字
        #将item转换成字典
        item_dict = dict(item)
        #将数据插入到集合
        self.db_collecton.insert_one(item_dict)
        return item # 会在控制台输出原item数据,可以选择不写

    def close_spider(self, spider):  # 爬虫关闭时调用,关闭数据库连接
        self.client.close()
 

爬取结果:
在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是:网络请求:模拟浏览器的行为从网上抓取数据数据解析:将请求下来的数据进行过滤,提取我们想要的数据数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是:爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。Scrapy和分布式爬虫Scrapy框架Scrapy-redis组件、分布式爬虫等。通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求!【课程服务】 专属付费社群+定期答疑

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值