高并发学习(一):概述

一、并发与高并发

(1)并发:同时拥有两个或者多个线程。如果程序在单核处理器上运行,多个线程将交替地换入或者换出内存,这些线程同时“存在”的,每个线程都处于执行过程中的某个状态。如果运行在多核处理器上,此时,程序中的每个线程将分配到一个处理器核上,因此可以同时运行。

(2)高并发(High Concurrency):是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。

总结:

  • 并发:多个线程操作相同的资源,保证线程安全,合理使用资源。
  • 高并发:服务能同时处理很多请求,提高程序性能。

二、硬件支持

(1)cache的出现:CPU的频率越来远快,相对内存快了一个数量级,对于访存的操作CPU就需要等待主存,这样会导致资源的白白浪费。所以cache的出现是为了解决CPU与内存速度不匹配的问题。

  • 左图为最简单的高速缓存的配置,数据的读取和存储都经过高速缓存,CPU核心与高速缓存有一条特殊的快速通道;主存与高速缓存都连在系统总线上(BUS)这条总线还用于其他组件的通信。

  • 在高速缓存出现后不久,系统变得越来越复杂,高速缓存与主存之间的速度差异被拉大,直到加入了另一级缓存,新加入的这级缓存比第一缓存更大,并且更慢,而且经济上不合适,所以有了二级缓存,甚至是三级缓存。

               

cache 的工作原理是基于“局部性”原理,它包含以下两个方面:

  • 时间局部性:如果某个数据被访问,那么不久将来它很可能再次被访问。
  • 空间局部性:如果某个数据被访问,那么与它相邻的数据也可能被访问。

2、cache带来的问题

     cache 给系统带来性能上飞跃的同时,也引入了新的问题“缓存一致性问题”。设想如下场景(cpu一共有两个核,core1和core2): 
以i++为例,i的初始值是0.那么在开始每个核都存储了i的值0,当第core1块做i++的时候,其缓存中的值变成了1,即使马上回写到主内存,那么在回写之后core2缓存中的i值依然是0,其执行i++,回写到内存就会覆盖第一块内核的操作,使得最终的结果是1,而不是预期中的2。

       为了达到数据访问的一致,需要各个处理器在访问缓存时遵循一些协议,在读写时根据协议来操作,常见的协议有MSI,MESI,MOSI等。我们介绍其中最经典的MESI协议(用于保证多个CPU cache之间缓存共享数据的一致)。

              

三、模拟并发的工具

               

四、并发的优势和风险

                 

参考博客:https://blog.csdn.net/cl2010abc/article/details/80745185

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值