Python-S9-Day126——Scrapy爬虫框架

  • 01 今日内容概要

  • 02 内容回顾和补充:scrapy

  • 03 内容回顾和补充:网络和并发编程

  • 04 Scrapy爬虫框架:pipeline做持久化(一)

  • 05 Scrapy爬虫框架:pipeline做持久化(二)

  • 06 Scrapy爬虫框架:dupefilter做去重(一)

  • 07 Scrapy爬虫框架:dupefilter做去重(二)

  • 08 Scrapy爬虫框架:depth深度控制

  • 09 Scrapy爬虫框架:手动处理cookie

01 今日内容概要

1.1 围绕Scrapy框架;

  1.1.1 pipeline和items实现持久化;

  1.1.2 去重规则;

  1.1.3 cookie;

  1.1.4 下载中间件middleware;

  1.1.5 Scrapy的结构图;

  1.1.6 深度(优先级);

02 内容回顾和补充:scrapy

2.1 Scrapy框架;

  2.1.1 依赖Twisted,帮助我们下载页面,内部基于事件循环的机制,实现爬虫的并发;

  2.1.2 

 

'''

'''
'''
非阻塞,不等待;
异步,回调;
事件循环;
##############基于事件循环的异步非阻塞模块;##############################
一个线程同时可以向多个目标发起http请求;
import socket
sk = socket.socket()
sk.setblocking(False)
sk.connect((1.1.1.1:80))

sk = socket.socket()
sk.setblocking(False)
sk.connect((1.1.1.1:80))

sk = socket.socket()
sk.setblocking(False)
sk.connect((1.1.1.1:80))

sk = socket.socket()
sk.setblocking(False)
sk.connect((1.1.1.1:80))
'''
# 原来的你;
'''
import requests

url_list = ['http://www.baidu.com', 'http://www.jd.com', 'http://www.mi.com', ]

for item in url_list:
    response = requests.get(
        url=item
    )
    print(response.text)
'''
# 现在的你;
from twisted.web.client import getPage, defer
from twisted.internet import reactor


# 第一部分,代理开始接收任务;

def callback(contents):
    print(contents)


deferred_list = []

url_list = ['https://www.bing.com', 'https://segmentfault.com/', 'https://www.stackoverflow.com', ]

for url in url_list:
    deferred = getPage(bytes(url, encoding='utf8'))
    deferred.addCallback(callback)
    deferred_list.append(deferred)
# 第二部分:代理完成任务后,停止;
dlist = defer.DeferredList(deferred_list)


def all_done(arg):
    reactor.stop()


dlist.addBoth(all_done)
# 第三部分,代理开始去处理吧;
reactor.run()

 

03 内容回顾和补充:网络和并发编程

3.1 OSI七层模型,或5层模型;

3.2 三次握手、四次挥手;

3.3 TCP和UDP的区别;

  • TCP-打电话
  • UDP-对讲机

3.4 路由器和交换机的区别;

  • 交换机可以在局域网进行通信;
  • 路由器跨局域网通信;

3.5 ARP协议——地址解析协议,解析IP和MAC地址的关系;联想DNS服务器;

3.6 HTTP与HTTPS——HTTPS = HTTP + SSL/TLS

3.7 进程、线程和协程的区别;

  • 一个应用程序就是一个软件,一个软件中可以有多个进程;一个进程中可以有多个线程;
  • CPU工作的最小单元是线程;
  • 一个进程可以存在多个线程;
  • 对于一个进程来说,共享一块内存;进程与进程之间的数据是隔离的;
  • 协程就是微线程,协程不是真实存在的,是人为创建的;计算性任务不会快,有可能会慢,但IO和非阻塞是快的;
一、进程与线程

1.进程

我们电脑的应用程序,都是进程,假设我们用的电脑是单核的,cpu同时只能执行一个进程。当程序处于I/O阻塞的时候,CPU如果和程序一起等待,那就太浪费了,cpu会去执行其他的程序,此时就涉及到切换,切换前要保存上一个程序运行的状态,才能恢复,所以就需要有个东西来记录这个东西,就可以引出进程的概念了。

进程就是一个程序在一个数据集上的一次动态执行过程。进程由程序,数据集,进程控制块三部分组成。程序用来描述进程哪些功能以及如何完成;数据集是程序执行过程中所使用的资源;进程控制块用来保存程序运行的状态

2.线程

一个进程中可以开多个线程,为什么要有进程,而不做成线程呢?因为一个程序中,线程共享一套数据,如果都做成进程,每个进程独占一块内存,那这套数据就要复制好几份给每个程序,不合理,所以有了线程。

线程又叫轻量级进程,是一个基本的cpu执行单元,也是程序执行过程中的最小单元。一个进程最少也会有一个主线程,在主线程中通过threading模块,在开子线程

3.进程线程的关系

(1)一个线程只能属于一个进程,而一个进程可以有多个线程,但至少有一个线程

(2)资源分配给进程,进程是程序的主体,同一进程的所有线程共享该进程的所有资源

(3)cpu分配给线程,即真正在cpu上运行的是线程

(4)线程是最小的执行单元,进程是最小的资源管理单元

4.并行和并发
并行处理是指计算机系统中能同时执行两个或多个任务的计算方法,并行处理可同时工作于同一程序的不同方面

并发处理是同一时间段内有几个程序都在一个cpu中处于运行状态,但任一时刻只有一个程序在cpu上运行。

并发的重点在于有处理多个任务的能力,不一定要同时;而并行的重点在于就是有同时处理多个任务的能力。并行是并发的子集

 

3.8 GIL锁(全局解释器锁),保证同一个进程在同一个时刻只有一个线程被CPU调用执行,只能一个程度上保证数据安全;

  3.8.1 为了保证数据安全,自己加锁处理;

3.9 进程之间如何共享?

  • queue
  • pipe
  • manager

04 Scrapy爬虫框架:pipeline做持久化(一)

4.1 pipeline/items

  4.1.1 先写pipeline类;

  4.1.2 写Item类;

  4.1.3 settings.py中配置ITEM_PIPELINES;

  4.1.4 爬虫yield 每执行一次,pipeline就执行一次;

4.2 pipeline是所有爬虫公用的,如果想要给某个爬虫定制需要使用spider参数进行处理;

05 Scrapy爬虫框架:pipeline做持久化(二)

5.1 去重规则

06 Scrapy爬虫框架:dupefilter做去重(一) 

07 Scrapy爬虫框架:dupefilter做去重(二)

08 Scrapy爬虫框架:depth深度控制

09 Scrapy爬虫框架:手动处理cookie

转载于:https://www.cnblogs.com/tqtl911/p/9636942.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值