python后端面试

面试题如下

笔者在7月份遇到的面试题如下

1. 二分查找/算法原理/数据结构

二分查找法
key_num
list

def binary_search(key_num,list) 
    mid=len(list)/2
    if list[mid] > key_num:
         binary_search(key_mun,list[:mid])
    elif list[mid] < key_num:
         binary_search(key_mun,list[:mid])
    else:
         print(binary_search[mid])

2. mongodb 面试题

mongo 是非关系行的数据库(nosql) 
1.mongo 无复杂性的锁以及事物出理方面的操作 
2. 在collection中,数据库名+集合名叫做名字空间。也就是一个集合的完整名

3.mongodb的结构介绍 
数据库中存储的对象设计bson,一种类似json的二进制文件,由键值对组成

4 .数据库的整体结构 
键值对–》文档–》集合–》数据库

5. 分析器在MongoDB中的作用是什么? 
MongoDB中包括了一个可以显示数据库中每个操作性能特点的数据库分析器。通过这个分析器你可以找到比预期慢的查询(或写操作);利用这一信息,比如,可以确定是否需要添加索引。

6. MongoDB支持存储过程吗?如果支持的话,怎么用? 
MongoDB支持存储过程,它是javascript写的,保存在db.system.js表中。

7.MongoDB在A:{B,C}上建立索引,查询A:{B,C}和A:{C,B}都会使用索引吗?

  不会,只会在A:{B,C}上使用索引。 
10.如果一个分片(Shard)停止或很慢的时候,发起一个查询会怎样?

  如果一个分片停止了,除非查询设置了“Partial”选项,否则查询会返回一个错误。如果一个分片响应很慢,MongoDB会等待它的响应。

适用场合:

网站数据:Mongo非常适合实时的插入,更新与查询,并具备网站实时数据存储所需的复制及高度伸缩性。 
缓存:由于性能很高,Mongo也适合作为信息基础设施的缓存层。在系统重启之后,由Mongo搭建的持久化缓存层可以避免下层的数据源 过载。 
大尺寸,低价值的数据:使用传统的关系型数据库存储一些数据时可能会比较昂贵,在此之前,很多时候程序员往往会选择传统的文件进行存储。 
高伸缩性的场景:Mongo非常适合由数十或数百台服务器组成的数据库。Mongo的路线图中已经包含对MapReduce引擎的内置支持。 
用于对象及JSON数据的存储:Mongo的BSON数据格式非常适合文档化格式的存储及查询。

3. redis面试题

用处(缓存/队列 包括Pub、Sub/计数器/排行榜等)
基本操作与数据类型
消息队列 且与其它消息队列的区别
主从备份
宕机如何处理
持久化及原理(原生持久化 & 结合Mysql等数据库持久化)
是否可以作为数据库?作为数据库有哪些问题?
集群化
数据超过内存如何处理
事务与分布式锁机制
缓存失效策略
其它
redis 一般用来做缓存 读写性好且能做读写分离同时支持多种类型 如 list dict sootedset(可做实时的排序 如游戏的实时分数更新) hash 
redis 支持事务性的操作

1.redis常见性能问题和解决方案:   

   1).Master写内存快照,save命令调度rdbSave函数,会阻塞主线程的工作,当快照比较大时对性能影响是非常大的,会间断性暂停服务,所以Master最好不要写内存快照。

   2).Master AOF持久化,如果不重写AOF文件,这个持久化方式对性能的影响是最小的,但是AOF文件会不断增大,AOF文件过大会影响Master重启的恢复速度。Master最好不要做任何持久化工作,包括内存快照和AOF日志文件,特别是不要启用内存快照做持久

    化,如果数据比较关键,某个Slave开启AOF备份数据,策略为每秒同步一次。

   3).Master调用BGREWRITEAOF重写AOF文件,AOF在重写的时候会占大量的CPU和内存资源,导致服务load过高,出现短暂服务暂停现象。

   4). Redis主从复制的性能问题,为了主从复制的速度和连接的稳定性,Slave和Master最好在同一个局域网内

2. mySQL里有2000w数据,redis中只存20w的数据,如何保证redis中的数据都是热点数据

redis 内存数据集大小上升到一定大小的时候,就会施行数据淘汰策略(回收策略)。redis 提供 6种数据淘汰策略:
volatile-lru:从已设置过期时间的数据集(server.db[i].expires)中挑选最近最少使用的数据淘汰
volatile-ttl:从已设置过期时间的数据集(server.db[i].expires)中挑选将要过期的数据淘汰
volatile-random:从已设置过期时间的数据集(server.db[i].expires)中任意选择数据淘汰
allkeys-lru:从数据集(server.db[i].dict)中挑选最近最少使用的数据淘汰
allkeys-random:从数据集(server.db[i].dict)中任意选择数据淘汰
no-enviction(驱逐):禁止驱逐数据
3.Redis是单进程单线程的

redis利用队列技术将并发访问变为串行访问,消除了传统数据库串行控制的开销
4.redis 最适合的场景   
- (1)会话缓存(Session Cache) 
- (2)全页缓存(FPC)

  token

(3)队列

list

(4)排行榜/计数器

sorted set

(5)发布/订阅 
抖音的发布 点赞等 
  最后(但肯定不是最不重要的)是Redis的发布/订阅功能。发布/订阅的使用场景确实非常多。我已看见人们在社交网络连接中使用,还可作为基于发布/订阅的脚本触发器,甚至用Redis的发布/订阅功能来建立聊天系统!(不,这是真的,你可以去核实)。

5.redis 持久化   
做快照

6.redis 主从哨兵设置   
设置主从 以防数据丢失

4. 大数据并发处理

找出 重复次数最多的电话号码

    思路:1.将电话列表进行桶排序 
                2.拿到桶  [0,1,0,0,5,3]
1
2
        list= [1,4,3,5,2]
        buket=[0]*(max(list)+1)
        for i in list:
            buket[i]+=1

        new_list=[]
         for k in range(len(buket)):
            if buket[k] != 0:
                for j in range(buket[k]):
                    new_list.append(k)

                    启用numpy 进行数据比较
                    import numpy as np
                        a=np.array([buket])
                        b=np.argsort(a)
        print (b)    [0 4 2 1 3]   说明 a[3]是最大的 a[0] 是最小值

迭代器的引入,readlines 进程池 多线程及携程

4. 交换,路由 网关 内外网

交换&路由 
- 交换机主要是用于组建局域网,而路由器则是负责让主机连接外网 
- 最初的交换机工作在OSI开放式系统互联模型的数据链路层,也就是第二层,而路由器则工作在OSI模型的网络层。 
- 交换机是根据MAC地址转发数据帧,而路由器则是根据IP地址来转发IP数据报/分组

为了简单地说明路由器的工作原理,现在我们假设有这样一个简单的网络。如图所示,A、B、C、D四个网络通过路由器连接在一起。 
现在我们来看一下在如图所示网络环境下路由器又是如何发挥其路由、数据转发作用的。现假设网络A中一个用户A1要向C网络中的C3用户发送一个请求信号时,信号传递的步骤如下: 
第1步:用户A1将目的用户C3的地址C3,连同数据信息以数据帧的形式通过集线器或交换机以广播的形式发送给同一网络中的所有节点,当路由器A5端口侦听到这个地址后,分析得知所发目的节点不是本网段的,需要路由转发,就把数据帧接收下来。 
第2步:路由器A5端口接收到用户A1的数据帧后,先从报头中取出目的用户C3的IP地址,并根据路由表计算出发往用户C3的最佳路径。因为从分析得知到 C3的网络ID号与路由器的C5网络ID号相同,所以由路由器的A5端口直接发向路由器的C5端口应是信号传递的最佳途经。 
第3步:路由器的C5端口再次取出目的用户C3的IP地址,找出C3的IP地址中的主机ID号,如果在网络中有交换机则可先发给交换机,由交换机根据 MAC地址表找出具体的网络节点位置;如果没有交换机设备则根据其IP地址中的主机ID直接把数据帧发送给用户C3,这样一个完整的数据通信转发过程也完成了。

网关

网关(Gateway)就是一个网络连接到另一个网络的“关口”。 
按照不同的分类标准,网关也有很多种。TCP/IP协议里的网关是最常用的,在这里我们所讲的“网关”均指TCP/IP协议下的网关。
大家都知道,从一个房间走到另一个房间,必然要经过一扇门。同样,从一个网络向另一个网络发送信息,也必须经过一道“关口”,这道关口就是网关。顾名思义,网关(Gateway)就是一个网络连接到另一个网络的“关口”。 
所以说,只有设置好网关的IP地址,TCP/IP协议才能实现不同网络之间的相互通信

5. liunx 的抓包?

tcpdump -i ens33 port 25 -w msg.pcap

6. 网络编程

7. 慢查询的作用

慢查询的开启 是为了分析sql语句 如:查询过慢的语句 分析sql语句 以及优化mysql的索引等等

分析MySQL语句查询性能的方法除了使用 EXPLAIN 输出执行计划,还可以让MySQL记录下查询超过指定时间的语句,我们将超过指定时间的SQL语句查询称为“慢查询”。

8. nginx

nginx 负载均衡:

upstream myapp1 {
        ip_hash;
            server localhost:18080;
            server localhost:18081;
            server localhost:18082;
}
server {
            listen 8000;
            location / {
                proxy_pass http://myapp1;
        }
}
web架构


  (1)【客户端层】到【反向代理层】的负载均衡,是通过“DNS轮询”实现的; 
  (2)【反向代理层】到【站点层】的负载均衡,是通过“nginx”实现的; 
  (3)【站点层】到【服务层】的负载均衡,是通过“服务连接池”实现的; 
  (4)【数据层】的负载均衡,要考虑“数据的均衡”与“请求的均衡”两个点,常见的方式有“按照范围水平切分”与“hash水平切分”。

nginx是如何实现高并发的 
一个主进程,多个工作进程,每个工作进程可以处理多个请求 
每进来一个request,会有一个worker进程去处理。但不是全程的处理,处理到可能发生阻塞的地方,比如向上游(后端)服务器转发request,并等待请求返回。那么,这个处理的worker继续处理其他请求,而一旦上游服务器返回了,就会触发这个事件,worker才会来接手,这个request才会接着往下走。 
由于web server的工作性质决定了每个request的大部份生命都是在网络传输中,实际上花费在server机器上的时间片不多。这是几个进程就解决高并发的秘密所在。即@skoo所说的webserver刚好属于网络io密集型应用,不算是计算密集型。

9. 分布式系统

分布式系统:多个能独立运行的计算机(称为结点)组成。各个结点利用计算机网络进行信息传递,从而实现共同的“目标或者任务”。

在分布式系统中:

1、应用可以按业务类型拆分成多个应用,再按结构分成接口层、服务层;我们也可以按访问入口分,如移动端、PC端等定义不同的接口应用;

2、数据库可以按业务类型拆分成多个实例,还可以对单表进行分库分表;

3、增加分布式缓存、搜索、文件、消息队列、非关系型数据库等中间件;

很明显,分布式系统可以解决集中式不便扩展的弊端,我们可以很方便的在任何一个环节扩展应用,就算一个应用出现问题也不会影响到别的应用。

随着微服务Spring Cloud & Docker的大热,及国内开源分布式Dubbo框架的重生,分布式技术发展非常迅速。

分布式系统虽好,也带来了系统的复杂性,如分布式事务、分布式锁、分布式session、数据一致性等都是现在分布式系统中需要解决的难题,虽然已经有很多成熟的方案,但都不完美。分布式系统也增加了开发测试运维成本,工作量增加,分布式系统管理不好反而会变成一种负担。

10. mysql 优化 左查询 右查询的意义

mysql优化

1. Mysql中主要的两种存储引擎: MyISAM 和 InnoDB 
2. 分库分表 
3. 索引 
4. (1)普通索引(Index):最基本的索引,它没有任何限制。 
4. (2)唯一索引(UniqueIndex):它与前面的普通索引类似,不同的就是:索引列的值必须唯一,但允许有空值。如果是组合索引,则列值的组合必须唯一。 
4. (3)主键索引(PrimaryIndex):它是一种特殊的唯一索引,不允许有空值(唯一索引允许)。主键索引可以作为外键,唯一索引不可以,并且每个表只能由一个主键索引。 
4. (4)全文索引(FullTextIndex):在生成这种类型的索引时,MySQL将把在文本中出现的所有单词创建为一份清单,查询操作将根据这份清单去检索有关的数据记录,全文索引只可创建在BLOB、TEXT、VARCHAR、CHAR等特殊类型上。 
4. (5)组合索引(联合索引、复合索引):多个列组合成一个索引,组织索引遵循最左前缀原则,即组合索引中最先出现的列要出现在查询语句中,索引才会生效。 
组合索引是先对第一列进行排序,第一列相同时再对第二列排序…… 
组合索引的不严谨检索过程就是先根据第一个索引找到对应的数据,再根据第二个索引找,一直这样下去 
4. 缓存

左查询 以左侧为基准点

这里写图片描述

右查询 以右侧为基准点 

这里写图片描述
11. mvc mvvm

mvc 

mvc
12. docker

这里写图片描述

名词                                        描述
Docker镜像             Docker镜像是用于创建Docker容器的模板
Docker容器             容器是独立运行的一个或一组应用 。
Docker客户端          Docker客户端通过命令行或者其他工具使用Docker API 与 Docker的守护进程进行通信
Docker主机             一个物理或者虚拟的机器用于执行Docker守护进程和容器
Docker仓库             Docker仓库用来保存镜像 , 可以理解为代码控制中的代码仓库
DockerMachine       Docker Machine 是一个简化的Docker安装的命令行工具 , 通过一个简单的命令行即可在相应的平台上安装                                 Docker
13. 二叉树

python版二叉树

 

二叉树的创建及遍历(Python版)

#!/usr/bin/python3
#-*- coding: utf-8 -*-
#Function: simulate the binary tree in python
#__author__: Tresser
#


class BTNode(object):
    def __init__(self, key=None, lchild=None, rchild=None):
        self.key = key
        self.lchild = lchild
        self.rchild = rchild

class BiTree(object):
    def __init__(self, data_list):
        #初始化即将传入的列表的迭代器
        self.it = iter(data_list)

    def createBiTree(self, bt=None):    
        try:
            #步进获取下一个元素
            next_data = next(self.it)
            #如果当前列表元素为'#', 则认为其为 None
            if next_data is "#":
                bt = None
            else:
                bt = BTNode(next_data)
                bt.lchild = self.createBiTree(bt.lchild)
                bt.rchild = self.createBiTree(bt.rchild)
        except Exception as e:
            print(e)

        return bt

    #先序遍历函数
    def preOrderTrave(self, bt):
        if bt is not None:
            print(bt.key, end=" ")
            self.preOrderTrave(bt.lchild)
            self.preOrderTrave(bt.rchild)

    #中序遍历函数
    def inOrderTrave(self, bt):
        if bt is not None:
            self.inOrderTrave(bt.lchild)
            print(bt.key, end=" ")
            self.inOrderTrave(bt.rchild)

    #后序遍历函数
    def postOrderTrave(self, bt):
        if bt is not None:
            self.postOrderTrave(bt.lchild)
            self.postOrderTrave(bt.rchild)
            print(bt.key, end=" ")

    #综合打印
    def printTrave(self, bt):
        print("先序遍历: ", end="")
        self.preOrderTrave(bt)
        print('\n')
        print("中序遍历: ", end="")
        self.inOrderTrave(bt)
        print('\n')
        print("后序遍历: ", end="")
        self.postOrderTrave(bt)
        print('\n')


data = input("Please input the node value: ")
data_list = list(data)

btree = BiTree(data_list)
root = btree.createBiTree()
btree.printTrave(root)
--------------------- 
作者:Blood_Seeker 
来源:CSDN 
原文:https://blog.csdn.net/Blood_Seeker/article/details/79068752 
版权声明:本文为博主原创文章,转载请附上博文链接!

这里写图片描述

这里写图片描述

14. https http的区别 xss攻击

15. 异步同步

异步的使用场景:

1、不涉及共享资源,或对共享资源只读,即非互斥操作

2、没有时序上的严格关系

3、不需要原子操作,或可以通过其他方式控制原子性

4、常用于IO操作等耗时操作,因为比较影响客户体验和使用性能

5、不影响主线程逻辑

同步:一直等任务完成后才会进行下一步的操作,故不适用于需要用户一直等待的操作,如邮件发送等

同步的好处:

1、同步流程对结果处理通常更为简单,可以就近处理。

2、同步流程对结果的处理始终和前文保持在一个上下文内。

3、同步流程可以很容易捕获、处理异常。

4、同步流程是最天然的控制过程顺序执行的方式。

16. 乐观锁悲观锁 死锁,以及死锁的条件

17. 数据库面试题

18.微服务

这里写图片描述

19.多进程多线程 协程

进程 中可以有多个线程 线程中可以又多个协程 
进程:对系统而言,一个任务就是一个进程,多进程会产生多个任务,有各自不同的进程号。 
线程为内核态的 
协程是用户态的 故切换时消耗代价少

进程线程协成python

一、进程与线程

1.进程

我们电脑的应用程序,都是进程,假设我们用的电脑是单核的,cpu同时只能执行一个进程。当程序出于I/O阻塞的时候,CPU如果和程序一起等待,那就太浪费了,cpu会去执行其他的程序,此时就涉及到切换,切换前要保存上一个程序运行的状态,才能恢复,所以就需要有个东西来记录这个东西,就可以引出进程的概念了。

进程就是一个程序在一个数据集上的一次动态执行过程。进程由程序,数据集,进程控制块三部分组成。程序用来描述进程哪些功能以及如何完成;数据集是程序执行过程中所使用的资源;进程控制块用来保存程序运行的状态

2.线程

一个进程中可以开多个线程,为什么要有进程,而不做成线程呢?因为一个程序中,线程共享一套数据,如果都做成进程,每个进程独占一块内存,那这套数据就要复制好几份给每个程序,不合理,所以有了线程。

线程又叫轻量级进程,是一个基本的cpu执行单元,也是程序执行过程中的最小单元。一个进程最少也会有一个主线程,在主线程中通过threading模块,在开子线程

3.进程线程的关系

(1)一个线程只能属于一个进程,而一个进程可以有多个线程,但至少有一个线程

(2)资源分配给进程,进程是程序的主体,同一进程的所有线程共享该进程的所有资源

(3)cpu分配给线程,即真正在cpu上运行的是线程

(4)线程是最小的执行单元,进程是最小的资源管理单元

4.并行和并发
并行处理是指计算机系统中能同时执行两个或多个任务的计算方法,并行处理可同时工作于同一程序的不同方面

并发处理是同一时间段内有几个程序都在一个cpu中处于运行状态,但任一时刻只有一个程序在cpu上运行。

并发的重点在于有处理多个任务的能力,不一定要同时;而并行的重点在于就是有同时处理多个任务的能力。并行是并发的子集

以上所说的是相对于所有语言来说的,Python的特殊之处在于Python有一把GIL锁,这把锁限制了同一时间内一个进程只能有一个线程能使用cpu

二、threading模块

这个模块的功能就是创建新的线程,有两种创建线程的方法:

1.直接创建

1.直接创建

复制代码

import threading
import time

def foo(n):
    print('>>>>>>>>>>>>>>>%s'%n)
    time.sleep(3)
    print('tread 1')

t1=threading.Thread(target=foo,args=(2,))
#arg后面一定是元组,t1就是创建的子线程对象
t1.start()#把子进程运行起来

print('ending')

复制代码

上面的代码就是在主线程中创建了一个子线程

运行结果是:先打印>>>>>>>>>>>>>2,在打印ending,然后等待3秒后打印thread 1

2.另一种方式是通过继承类创建线程对象

复制代码

import  threading
import time

class MyThread(threading.Thread):
    def __init__(self):
        threading.Thread.__init__(self)

    def run(self):
        print('ok')
        time.sleep(2)
        print('end')

t1=MyThread()#创建线程对象
t1.start()#激活线程对象
print('end again')

复制代码

3.join()方法

这个方法的作用是:在子线程完成运行之前,这个子线程的父线程将一直等待子线程运行完再运行

复制代码

import threading
import time

def foo(n):
    print('>>>>>>>>>>>>>>>%s'%n)
    time.sleep(n)

    print('tread 1')
def bar(n):
    print('>>>>>>>>>>>>>>>>%s'%n)
    time.sleep(n)
    print('thread 2')
s=time.time()
t1=threading.Thread(target=foo,args=(2,))
t1.start()#把子进程运行起来

t2=threading.Thread(target=bar,args=(5,))
t2.start()

t1.join()     #只是会阻挡主线程运行,跟t2没关系
t2.join()
print(time.time()-s)
print('ending')
'''
运行结果:
>>>>>>>>>>>>>>>2
>>>>>>>>>>>>>>>>5
tread 1
thread 2
5.001286268234253
ending
'''

复制代码

4.setDaemon()方法

这个方法的作用是把线程声明为守护线程,必须在start()方法调用之前设置。

默认情况下,主线程运行完会检查子线程是否完成,如果未完成,那么主线程会等待子线程完成后再退出。但是如果主线程完成后不用管子线程是否运行完都退出,就要设置setDaemon(True)

复制代码

import  threading
import time

class MyThread(threading.Thread):
    def __init__(self):
        threading.Thread.__init__(self)

    def run(self):
        print('ok')
        time.sleep(2)
        print('end')

t1=MyThread()#创建线程对象
t1.setDaemon(True)
t1.start()#激活线程对象
print('end again')
#运行结果是马上打印ok和 end again 
#然后程序终止,不会打印end

复制代码

主线程默认是非守护线程,子线程都是继承的主线程,所以默认也都是非守护线程

5.其他方法

isAlive(): 返回线程是否处于活动中

getName(): 返回线程名

setName(): 设置线程名

threading.currentThread():返回当前的线程变量

threading.enumerate():返回一个包含正在运行的线程的列表

threading.activeCount():返回正在运行的线程数量

三、各种锁

1.同步锁(用户锁,互斥锁)

先来看一个例子:

需求是有一个全局变量的值是100,我们开100个线程,每个线程执行的操作是对这个全局变量减一,最后import threading

 

复制代码

import threading
import time

def sub():

    global num
    temp=num

    num=temp-1
    time.sleep(2)
num=100


l=[]for i in range(100):
    t=threading.Thread(target=sub,args=())
    t.start()
    l.append(t)
for i in l:
    i.join()

print(num)

复制代码

 

好像一切正常,现在我们改动一下,在sub函数的temp=num,和num=temp-1 中间,加一个time.sleep(0.1),会发现出问题了,结果变成两秒后打印99了,改成time.sleep(0.0001)呢,结果不确定了,但都是90几,这是怎么回事呢?

这就要说到Python里的那把GIL锁了,我们来捋一捋:

首次定义一个全局变量num=100,然后开辟了100个子线程,但是Python的那把GIL锁限制了同一时刻只能有一个线程使用cpu,所以这100个线程是处于抢这把锁的状态,谁抢到了,谁就可以运行自己的代码。在最开始的情况下,每个线程抢到cpu,马上执行了对全局变量减一的操作,所以不会出现问题。但是我们改动后,在全局变量减一之前,让他睡了0.1秒,程序睡着了,cpu可不能一直等着这个线程,当这个线程处于I/O阻塞的时候,其他线程就又可以抢cpu了,所以其他线程抢到了,开始执行代码,要知道0.1秒对于cpu的运行来说已经很长时间了,这段时间足够让第一个线程还没睡醒的时候,其他线程都抢到过cpu一次了。他们拿到的num都是100,等他们醒来后,执行的操作都是100-1,所以最后结果是99.同样的道理,如果睡的时间短一点,变成0.001,可能情况就是当第91个线程第一次抢到cpu的时候,第一个线程已经睡醒了,并修改了全局变量。所以这第91个线程拿到的全局变量就是99,然后第二个第三个线程陆续醒过来,分别修改了全局变量,所以最后结果就是一个不可知的数了。一张图看懂这个过程

这就是线程安全问题,只要涉及到线程,都会有这个问题。解决办法就是加锁

我们在全局加一把锁,用锁把涉及到数据运算的操作锁起来,就把这段代码变成串行的了,上代码:

复制代码

import threading
import time

def sub():

    global num
    lock.acquire()#获取锁
    temp=num
    time.sleep(0.001)

    num=temp-1
    lock.release()#释放锁
    time.sleep(2)
num=100


l=[]
lock=threading.Lock()
for i in range(100):
    t=threading.Thread(target=sub,args=())
    t.start()
    l.append(t)
for i in l:
    i.join()

print(num)

复制代码

获取这把锁之后,必须释放掉才能再次被获取。这把锁就叫用户锁

2.死锁与递归锁

死锁就是两个及以上进程或线程在执行过程中,因相互制约造成的一种互相等待的现象,若无外力作用,他们将永远卡在那里。举个例子:

复制代码

 1 import threading,time
 2 
 3 class MyThread(threading.Thread):
 4     def __init(self):
 5         threading.Thread.__init__(self)
 6 
 7     def run(self):
 8 
 9         self.foo()
10         self.bar()
11     def foo(self):
12         LockA.acquire()
13         print('i am %s GET LOCKA------%s'%(self.name,time.ctime()))
14         #每个线程有个默认的名字,self.name就获取这个名字
15 
16         LockB.acquire()
17         print('i am %s GET LOCKB-----%s'%(self.name,time.ctime()))
18 
19         LockB.release()
20         time.sleep(1)
21         LockA.release()
22 
23     def bar(self):#与
24         LockB.acquire()
25         print('i am %s GET LOCKB------%s'%(self.name,time.ctime()))
26         #每个线程有个默认的名字,self.name就获取这个名字
27 
28         LockA.acquire()
29         print('i am %s GET LOCKA-----%s'%(self.name,time.ctime()))
30 
31         LockA.release()
32         LockB.release()
33 
34 LockA=threading.Lock()
35 LockB=threading.Lock()
36 
37 for i in range(10):
38     t=MyThread()
39     t.start()
40 
41 #运行结果:
42 i am Thread-1 GET LOCKA------Sun Jul 23 11:25:48 2017
43 i am Thread-1 GET LOCKB-----Sun Jul 23 11:25:48 2017
44 i am Thread-1 GET LOCKB------Sun Jul 23 11:25:49 2017
45 i am Thread-2 GET LOCKA------Sun Jul 23 11:25:49 2017
46 然后就卡住了

复制代码

上面这个例子中,线程2在等待线程1释放B锁,线程1在等待线程2释放A锁,互相制约

我们在用互斥锁的时候,一旦用的锁多了,很容易就出现这种问题

在Python中,为了解决这个问题,Python提供了一个叫可重用锁(RLock)的概念,这个锁内部维护着一个lock和一个counter变量,counter记录了acquire的次数,每次acquire,counter就加1,每次release,counter就减1,只有counter的值为0的时候,其他线程才能获得资源,下面用RLock替换Lock,在运行就不会卡住了: 

复制代码

 1 import threading,time
 2 
 3 class MyThread(threading.Thread):
 4     def __init(self):
 5         threading.Thread.__init__(self)
 6 
 7     def run(self):
 8 
 9         self.foo()
10         self.bar()
11     def foo(self):
12         RLock.acquire()
13         print('i am %s GET LOCKA------%s'%(self.name,time.ctime()))
14         #每个线程有个默认的名字,self.name就获取这个名字
15 
16         RLock.acquire()
17         print('i am %s GET LOCKB-----%s'%(self.name,time.ctime()))
18 
19         RLock.release()
20         time.sleep(1)
21         RLock.release()
22 
23     def bar(self):#与
24         RLock.acquire()
25         print('i am %s GET LOCKB------%s'%(self.name,time.ctime()))
26         #每个线程有个默认的名字,self.name就获取这个名字
27 
28         RLock.acquire()
29         print('i am %s GET LOCKA-----%s'%(self.name,time.ctime()))
30 
31         RLock.release()
32         RLock.release()
33 
34 LockA=threading.Lock()
35 LockB=threading.Lock()
36 
37 RLock=threading.RLock()
38 for i in range(10):
39     t=MyThread()
40     t.start()

复制代码

这把锁又叫递归锁

3.Semaphore(信号量)
这也是一把锁,可以指定有几个线程可以同时获得这把锁,最多是5个(前面说的互斥锁只能有一个线程获得)

复制代码

import threading
import time

semaphore=threading.Semaphore(5)

def foo():
    semaphore.acquire()
    time.sleep(2)
    print('ok')
    semaphore.release()

for i in range(10):
    t=threading.Thread(target=foo,args=())
    t.start()

复制代码

运行结果是每隔两秒就打印5个ok

4.Event对象
线程的运行是独立的,如果线程间需要通信,或者说某个线程需要根据一个线程的状态来执行下一步的操作,就需要用到Event对象。可以把Event对象看作是一个标志位,默认值为假,如果一个线程等待Event对象,而此时Event对象中的标志位为假,那么这个线程就会一直等待,直至标志位为真,为真以后,所有等待Event对象的线程将被唤醒

复制代码

event.isSet():返回event的状态值;

event.wait():如果 event.isSet()==False将阻塞线程;

event.set(): 设置event的状态值为True,所有阻塞池的线程激活进入就绪状态, 等待操作系统调度;设置对象的时候,默认是False的

event.clear():恢复event的状态值为False。

复制代码

用一个例子来演示Event对象的用法:

复制代码

import threading,time

event=threading.Event()     #创建一个event对象

def foo():
     print('wait.......')
     event.wait()
     #event.wait(1)#if event 对象内的标志位为Flase,则阻塞
     #wait()里面的参数的意思是:只等待1秒,如果1秒后还没有把标志位改过来,就不等了,继续执行下面的代码
     print('connect to redis server')

print('attempt to start redis sever)')

time.sleep(3)
event.set()

for i in range(5):
     t=threading.Thread(target=foo,args=())
     t.start()
#3秒之后,主线程结束,但子线程并不是守护线程,子线程还没结束,所以,程序并没有结束,应该是在3秒之后,把标志位设为true,即event.set()

复制代码

5.队列

官方文档说队列在多线程中保证数据安全是非常有用的

队列可以理解为是一种数据结构,可以存储数据,读写数据。就类似列表里面加了一把锁

5.1get和put方法

复制代码

import queue
#队列里读写数据只有put和get两个方法,列表的那些方法都没有
q=queue.Queue()#创建一个队列对象  FIFO先进先出
#q=queue.Queue(20)
#这里面可以有一个参数,设置最大存的数据量,可以理解为最大有几个格子
#如果设置参数为20,第21次put的时候,程序就会阻塞住,直到有空位置,也就是有数据被get走

q.put(11)#放值
q.put('hello')
q.put(3.14)

print(q.get())#取值11
print(q.get())#取值hello
print(q.get())#取值3.14
print(q.get())#阻塞,等待put一个数据

复制代码

get方法中有个默认参数block=True,把这个参数改成False,取不到值的时候就会报错queue.Empty

这样写就等同于写成q.get_nowait())

5.2join和task_done方法

join是用来阻塞进程,与task_done配合使用才有意义。可以用Event对象来理解,没次put(),join里面的计数器加1,没次task_done(),计数器减1,计数器为0的时候,才能进行下次put()

注意要在每个get()后面都加task_done才行

复制代码

import queue
import threading
#队列里只有put和get两个方法,列表的那些方法都没有
q=queue.Queue()#
def foo():#存数据
    # while True:
    q.put(111)
    q.put(222)
    q.put(333)
    q.join()
    print('ok')#有个join,程序就停在这里
def bar():
    print(q.get())
    q.task_done()
    print(q.get())
    q.task_done()
    print(q.get())
    q.task_done()#要在每个get()语句后面都加上
t1=threading.Thread(target=foo,args=())
t1.start()
t2=threading.Thread(target=bar,args=())
t2.start()

#t1,t2谁先谁后无所谓,因为会阻塞住,等待信号

复制代码

5.3 其他方法

q.qsize() 返回队列的大小

q.empty() 如果队列为空,返回True,反之False

q.full() 如果队列满了,返回True,反之False

q.full 与 maxsize 大小对应

 

5.4其他模式

前面说的队列都是先进先出(FIFO)模式,另外还有先进后出(LIFO)模式和优先级队列

先进后出模式创建队列的方式是:class queue.LifoQueue(maxsize)

优先级队列的写法是:class queue.Priorityueue(maxsize)  

  q=queue.PriorityQueue()

  q.put([5,100])#这个方括号只是代表一个序列类型,元组列表都行,但是都必须所有的一样

  q.put([7,200])

  q.put([3,"hello"])

  q.put([4,{"name":"alex"}])

中括号里面第一个位置就是优先级

5.5 生产者消费者模型

生产者就相当于产生数据的线程,消费者就相当于取数据的线程。我们在编写程序的时候,一定要考虑生产数据的能力和消费数据的能力是否匹配,如果不匹配,那肯定要有一方需要等待,所以引入了生产者和消费者模型。

这个模型是通过一个容器来解决生产者和消费者之间的 强耦合问题。有了这个容器,他们不用直接通信,而是通过这个容器,这个容器就是一个阻塞队列,相当于一个缓冲区,平衡了生产者和消费者的能力。我们写程序时用的目录结构,不也是为了解耦和吗

除了解决强耦合问题,生产者消费者模型还能实现并发

当生产者消费者能力不匹配的时候,就考虑加限制,类似if q.qsize()<20,这种

 

四、多进程

python 中有一把全局锁(GIL)使得多线程无法使用多核,但是如果是多进程,这把锁就限制不了了。如何开多个进程呢,需要导入一个multiprocessing模块

复制代码

import multiprocessing

import time

def foo():
    print('ok')
    time.sleep(2)

if __name__ == '__main__':#必须是这个格式
    p=multiprocessing.Process(target=foo,args=())
    p.start()
    print('ending')

复制代码

虽然可以开多进程,但是一定注意不能开太多,因为进程间切换非常消耗系统资源,如果开上千个子进程,系统会崩溃的,而且进程间的通信也是个问题。所以,进程能不用就不用,能少用就少用

1.进程间的通信

进程间通信有两种方式,队列和管道

1.1进程间的队列

每个进程在内存中都是独立的一块空间,不项线程那样可以共享数据,所以只能由父进程通过传参的方式把队列传给子进程

复制代码

import multiprocessing
import threading

def foo(q):
    q.put([12,'hello',True])

if __name__ =='__main__':
    q=multiprocessing.Queue()#创建进程队列

    #创建一个子线程
    p=multiprocessing.Process(target=foo,args=(q,))
    #通过传参的方式把这个队列对象传给父进程
    p.start()

    print(q.get())

复制代码

1.2管道

之前学过的socket其实就是管道,客户端 的sock和服务端的conn是管道 的两端,在进程中也是这个玩法,也要有管道的两头

复制代码

from multiprocessing import  Pipe,Process

def foo(sk):
    sk.send('hello')#主进程发消息
    print(sk.recv())#主进程收消息

sock,conn=Pipe()#创建了管道的两头
if __name__ == '__main__':

    p=Process(target=foo,args=(sock,))
    p.start()

    print(conn.recv())#子进程接收消息
    conn.send('hi son')#子进程发消息

复制代码

2.进程间的数据共享

我们已经通过进程队列和管道两种方式实现了进程间的通信,但是还没有实现数据共享

进程间的数据共享需要引用一个manager对象实现,使用的所有的数据类型都要通过manager点的方式去创建

复制代码

from multiprocessing import Process
from multiprocessing import Manager
def foo(l,i):
    l.append(i*i)

if __name__ == '__main__':
    manager = Manager()

    Mlist = manager.list([11,22,33])#创建一个共享的列表

    l=[]
    for i in range(5):
        #开辟5个子进程
        p = Process(target=foo, args=(Mlist,i))
        p.start()
        l.append(p)
    for i in l:
        i.join()#join 方法是等待进程结束后再执行下一个
    print(Mlist)

复制代码

3.进程池

进程池的作用是维护一个最大的进程量,如果超出设置的最大值,程序就会阻塞,知道有可用的进程为止

复制代码

from multiprocessing import Pool

import time

def foo(n):
    print(n)
    time.sleep(2)

if __name__ == '__main__':
    pool_obj=Pool(5)#创建进程池

    #通过进程池创建进程
    for i in range(5):
        p=pool_obj.apply_async(func=foo,args=(i,))
        #p是创建的池对象
    # pool 的使用是先close(),在join(),记住就行了
    pool_obj.close()
    pool_obj.join()

    print('ending')

复制代码

进程池中有以下几个方法:

1.apply:从进程池里取一个进程并执行
2.apply_async:apply的异步版本
3.terminate:立刻关闭线程池
4.join:主进程等待所有子进程执行完毕,必须在close或terminate之后
5.close:等待所有进程结束后,才关闭线程池

五、协程

协程在手,天下我有,说走就走。知道了协程,前面说的进程线程就都忘记吧

协程可以开很多很多,没有上限,切换之间的消耗可以忽略不计

1.yield

先来回想一下yield这个词,熟悉不,对,就是生成器那用的那个。yield是个挺神奇的东西,这是Python的一个特点。

一般的函数,是遇到return就停止,然后返回return 后面的值,默认是None,yield和return很像,但是遇到yield不会立刻停止,而是暂停住,直到遇到next(),(for循环的原理也是next())才会继续执行。yield 前面还可以跟一个变量,通过send()函数给yield传值,把值保存在yield前边的变量中

复制代码

import time

def consumer():#有yield,是一个生成器
    r=""
    while True:
        n=yield r#程序暂停,等待next()信号
        # if not n:
        #     return

        print('consumer <--%s..'%n)
        time.sleep(1)
        r='200 ok'

def producer(c):
    next(c)#激活生成器c
    n=0
    while n<5:
        n=n+1
        print('produer-->%s..'%n)
        cr = c.send(n)#向生成器发送数据
        print('consumer return :',cr)
  c.close() #生产过程结束,关闭生成器
if __name__ == '__main__':
    c=consumer()
    producer(c)

复制代码

看上面的例子,整个过程没有锁的出现,还能保证数据安全,更要命的是还可以控制顺序,优雅的实现了并发,甩多线程几条街

线程叫微进程,而协程又叫微线程。协程拥有自己的寄存器上下文和栈,因此能保留上一次调用的状态。

2.greenlet模块

这个模块封装了yield,使得程序切换非常方便,但是没法实现传值的功能

复制代码

from greenlet import greenlet

def foo():
    print('ok1')
    gr2.switch()
    print('ok3')
    gr2.switch()
def bar():
    print('ok2')
    gr1.switch()
    print('ok4')

gr1=greenlet(foo)
gr2=greenlet(bar)

gr1.switch()#启动

复制代码

3.gevent模块

在greenlet模块的基础上,开发出了更牛的模块gevent

gevent为Python提供了更完善的协程支持,其基本原理是:

当一个greenlet遇到IO操作时,就会自动切换到其他的greenlet,等IO操作完成,再切换回来,这样就保证了总有greenlet在运行,而不是等待

复制代码

import requests
import gevent
import time
def foo(url):

    response=requests.get(url)
    response_str=response.text

    print('get data %s'%len(response_str))

s=time.time()
gevent.joinall([gevent.spawn(foo,"https://itk.org/"),
                gevent.spawn(foo, "https://www.github.com/"),
                gevent.spawn(foo, "https://zhihu.com/"),])

# foo("https://itk.org/")
# foo("https://www.github.com/")
# foo("https://zhihu.com/")
print(time.time()-s)

复制代码

4.协程的优缺点:

优点:

  上下文切换消耗小

  方便切换控制流,简化编程模型

  高并发,高扩展性,低成本

缺点:

  无法利用多核

  进行阻塞操作时会阻塞掉整个程序

 

六、IO模型

我们下面会比较四种IO模型

1.blocking IO

2.nonblocking IO

3.IO multiplexing

4.asynchronous IO

我们以网络传输数据的IO为例,它会涉及到两个系统对象,一个是调用这个IO 的线程或者进程,另一个是系统内核,而当读取数据的时候,又会经历两个阶段:

  等待数据准备

  将数据从内核态拷贝到用户态的进程中(因为网络的数据传输是靠物理设备实现的,物理设备是硬件,只能有操作系统的内核态才能处理,但是读数据是程序使用的,所以需要这一步的切换)

 

1.blocking IO(阻塞IO)

典型的read操作如下图

linux下,默认情况的socket都是blocking,回想我们之前用的socket,sock和conn是两个连接,服务端同时只能监听一个连接,所以如果服务端在等待客户端发送消息的时候,其他连接是不能连接到服务端的。

在这种模式下,等待数据和复制数据都需要等待,所以是全程阻塞的

2.nonlocking IO (非阻塞IO)

 

在服务端建立连接之后,加上这个命令,就变成了非阻塞IO模式

这种模式,有数据就取,没有就报错,可以加一个异常捕捉。在等待数据的时候不阻塞,但是在copy数据的时候还是会阻塞,

优点是可以把等待连接的这段时间利用上,但是缺点也很明显:有很多次系统调用,消耗很大;而且当程序去做别的事的时候,数据到了,虽然不会丢失,但是程序收到的数据也不具有实时性

3.IO multiplexing(IO多路复用)

这个比较常用,我们以前用的accept(),有两个作用:

  1.监听,等待连接

  2.建立连接

现在我们用select来替代accept的第一个作用,select的优点在于可以监听很多对象,无论哪个对象活动,都能做出反应,并将活动的对象收集到一个列表

复制代码

import socket
import select
sock=socket.socket()
sock.bind(('127.0.0.1',8080))
sock.listen(5)


inp=[sock,]
while True:
    r=select.select(inp,[],[])
    print('r',r[0])
    for obj in r[0]:

        if obj == sock:
            conn,addr=obj.accept()

复制代码

但是建立连接的功能还是accept做,有了这个,我们就可以用并发的方式实现tcp的聊天了

复制代码

 1 # 服务端
 2 import socket
 3 import time
 4 import select
 5 
 6 sock=socket.socket()
 7 sock.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1)
 8 sock.bind(('127.0.0.1',8080))
 9 sock.listen(5)
10 
11 inp=[sock,]#监听套接字对象的列表
12 
13 while True:
14     r=select.select(inp,[],[])
15     print('r',r[0])
16     for obj in r[0]:
17         if obj == sock:
18             conn,addr=obj.accept()
19             inp.append(conn)
20         else:
21             data=obj.recv(1024)
22             print(data.decode('utf8'))
23             response=input('>>>>:')
24             obj.send(response.encode('utf8'))

复制代码

只有在建立连接的时候,sock才是活动的,列表中才会有这个对象,如果是在建立连接之后,收发消息的过程中,活动对象就不是sock,而是conn了,所以在实际操作中要判断列表中的对象是不是sock

在这个模型中,等待数据与copy数据的过程都是阻塞的,所以也叫全程阻塞,与阻塞IO模型相比,这个模型优势在于处理多个连接

IO 多路复用除了select,还有两种方式,poll 和 epoll

在windows下只支持select,而在linux中,这三个都有。epoll是最好的,select唯一的优点是多平台都可以用,但是缺点也很明显,就是效率很差。poll是epoll和select的中间过渡,与select相比,poll可以监听的数量没有限制。epoll没有最大连接上限,另外监听机制也完全发生变化,select的机制是轮询(每个数据都检查一遍,即使找到有变化的也会继续检查),epoll的机制是用回调函数,哪个对象有变化,那个就调用这个回调函数

4. Asynchronous IO (异步IO)

 

这个模式是全程无阻塞,只有全程无阻塞才能叫异步,这个模式虽然看起来不错,但是实际操作起来,如果请求量很大,效率会很低,而且操作系统的任务很重

七、selectors 模块

学会了这个模块,就不用在乎用的是select,还是poll,或者是epoll了,他们的接口都是这个模块。我们只需要知道这个接口怎么用,它里面封装的是什么,就不用考虑了

在这个模块中,套接字与函数的绑定是用的一个regesier()的方法,模块的用法很固定,服务端示例如下:

复制代码

 1 import selectors,socket
 2 
 3 sel=selectors.DefaultSelector()
 4 
 5 sock=socket.socket()
 6 sock.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1)
 7 sock.bind(('127.0.0.1',8080))
 8 sock.listen(5)
 9 sock.setblocking(False)
10 
11 def read(conn,mask):
12     data=conn.recv(1024)
13     print(data.decode('utf8'))
14     res=input('>>>>>>:')
15     conn.send(res.encode('utf8'))
16 
17 def accept(sock,mask):
18     conn,addr=sock.accept()
19     sel.register(conn,selectors.EVENT_READ,read)#conn和read函数绑定
20 #绑定套接字对象和函数
21 #绑定(register)的意思就是,套接字对象conn发生变化时,绑定的函数能执行
22 sel.register(sock,selectors.EVENT_READ,accept)#中间那个是固定写法
23 while True:
24     events=sel.select() #监听套接字对象(注册的那个)
25     #下面几行代码基本上就固定写法了
26     # print('events',events)
27     for key,mask in events:
28         callback = key.data#绑定的函数,
29         # key.fileobj就是活动的套接字对象
30         # print('callback',callable)
31         #mask是固定的
32         callback(key.fileobj,mask)#callback是回调函数
33         # print('key.fileobj',key.fileobj)
  • 4
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python后端面试题通常包括以下几个方面的内容: 1. Python语言基础:包括解释型语言的特点、Python中的私有变量和函数、字节码文件和解释器的关系等。 2. 数据库知识:包括数据库的三范式,例如列不可分非主键完全依赖于主键等。 3. Django模块:需要了解Django框架中的常用模块,如View模块、Template模板、URL模块和auth模块等。 4. 并发编程:了解并发编程的概念及其在Python中的实现方式。 5. 网络协议:了解网络请求的整个过程,包括域名解析、TCP三次握手、HTTP请求和响应、浏览器渲染等。 当面试Python后端方面时,可能会涉及到以上这些方面的问题。可以通过提前了解并掌握这些知识点来更好地应对相关问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [python后端开发面试题](https://blog.csdn.net/qq_41341757/article/details/113952586)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Python后端开发面试题汇总](https://blog.csdn.net/z94264326/article/details/124781014)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值