网络通信优化

如何优雅的谈论HTTP/1.0/1.1/2.0如何优雅的谈论HTTP/1.0/1.1/2.0
在这里插入图片描述
现在测试工具非常多,包括阿里云的 PTS 测试工具也很好用,但每款测试工具其实都有自
己的优缺点。个人建议,还是在熟练掌握其中一款测试工具的前提下,再去探索其他测试工
具的使用方法会更好

在这里插入图片描述

网络通信优化之I/O模型:如何解决高并发下I/O瓶颈?

问题:什么是 I/O???
I/O 是机器获取和交换信息的主要渠道,而流是完成 I/O 操作的主要方式。

在计算机中,流是一种信息的转换。流是有序的,因此相对于某一机器或者应用程序而言,我们通常
把机器或者应用程序接收外界的信息称为输入流(InputStream),
从机器或者应程序向外输出的信息称为输出流(OutputStream),
合称为输入 / 输出流(I/OStreams)。
机器间或程序间在进行信息交换或者数据交换时,总是先将对象或数据转换为某种形式的流,再通过流的传输,到达指定机器或程序后,再将流转换为对象数据。因此,流就可以被看作是一种数据的载体,通过它可以实现数据交换和传输。

回顾我的经历,我记得在初次阅读 Java I/O 流文档的时候,我有过这样一个疑问,在这里也分享给你,那就是:“不管是文件读写还是网络发送接收,信息的最小存储单元都是字节,那为什么 I/O 流操作要分为字节流操作和字符流操作呢?”

在这里插入图片描述

“不管是文件读写还是网络发送接收,信息的最小存储单元都是字节,那为什么 I/O 流操作要分为字节流操作和字符流操作呢?”

回答:我们知道字符到字节必须经过转码,这个过程非常耗时,如果我们不知道编码类型就很容易出现乱码问题。所以 I/O 流提供了一个直接操作字符的接口,方便我们平时对字符进行流操作。

I/O 操作分为磁盘 I/O 操作和网络 I/O 操作。

前者是从磁盘中读取数据源输入到内存中,之后将读取的信息持久化输出在物理磁盘上;
后者是从网络中读取信息输入到内存,最终将信息输出到网络中。
但不管是磁盘 I/O 还是网络 I/O,在传统 I/O 中都存在严重的性能问题

  1. 多次内存复制
    JVM 会发出 read() 系统调用,并通过 read 系统调用向内核发起读请求;
    内核向硬件发送读指令,并等待读就绪;
    内核把将要读取的数据复制到指向的内核缓存中;
    操作系统内核将数据复制到用户空间缓冲区,然后 read 系统调用返回。

1. 多次内存复制

在这个过程中,数据先从外部设备复制到内核空间,再从内核空间复制到用户空间,这就发
生了两次内存复制操作。这种操作会导致不必要的数据拷贝和上下文切换,从而降低 I/O
的性能。

2. 阻塞

在传统 I/O 中,InputStream 的 read() 是一个 while 循环操作,它会一直等待数据读取,
直到数据就绪才会返回。这就意味着如果没有数据就绪,这个读取操作将会一直被挂起,用
户线程将会处于阻塞状态。
在少量连接请求的情况下,使用这种方式没有问题,响应速度也很高。但在发生大量连接请
求时,就需要创建大量监听线程,这时如果线程没有数据就绪就会被挂起,然后进入阻塞状
态。一旦发生线程阻塞,这些线程将会不断地抢夺 CPU 资源,从而导致大量的 CPU 上下
文切换,增加系统的性能开销

传统 I/O 和 NIO 的最大区别就是传统 I/O 是面向流,NIO 是面向 Buffer。Buffer 可以将
文件一次性读入内存再做后续处理,而传统的方式是边读文件边处理数据。虽然传统 I/O
后面也使用了缓冲块,例如 BufferedInputStream,但仍然不能和 NIO 相媲美。使用
NIO 替代传统 I/O 操作,可以提升系统的整体性能,效果立竿见影。

使用 DirectBuffer 减少内存复制

提到了DirectBuffer,也就是零拷贝的实现

用DirectBuffer减少内存复制,也就是避免了用户空间与内核空
间来回复制。

NIO 的 Buffer 除了做了缓冲块优化之外,还提供了一个可以直接访问物理内存的类
DirectBuffer。普通的 Buffer 分配的是 JVM 堆内存,而 DirectBuffer 是直接分配物理内
存。
我们知道数据要输出到外部设备,必须先从用户空间复制到内核空间,再复制到输出设备,
而 DirectBuffer 则是直接将步骤简化为从内核空间复制到外部设备,减少了数据拷贝。

这里拓展一点,由于 DirectBuffer 申请的是非 JVM 的物理内存,所以创建和销毁的代价很
高。DirectBuffer 申请的内存并不是直接由 JVM 负责垃圾回收,但在 DirectBuffer 包装
类被回收时,会通过 Java Reference 机制来释放该内存块。

一个线程使用一个 Selector,通过轮询的方式,可以监听多个 Channel 上的事件。我们可
以在注册 Channel 时设置该通道为非阻塞,当 Channel 上没有 I/O 操作时,该线程就不
会一直等待了,而是会不断轮询所有 Channel,从而避免发生阻塞。

目前操作系统的 I/O 多路复用机制都使用了 epoll,相比传统的 select 机制,epoll 没有最
大连接句柄 1024 的限制。所以 Selector 在理论上可以轮询成千上万的客户端。

下面我用一个生活化的场景来举例,看完你就更清楚 Channel 和 Selector 在非阻塞 I/O
中承担什么角色,发挥什么作用了。

我们可以把监听多个 I/O 连接请求比作一个火车站的进站口。以前检票只能让搭乘就近一
趟发车的旅客提前进站,而且只有一个检票员,这时如果有其他车次的旅客要进站,就只能
在站口排队。这就相当于最早没有实现线程池的 I/O 操作。
后来火车站升级了,多了几个检票入口,允许不同车次的旅客从各自对应的检票入口进站。这就相当于用多线程创建了多个监听线程,同时监听各个客户端的 I/O 请求。
最后火车站进行了升级改造,可以容纳更多旅客了,每个车次载客更多了,而且车次也安排合理,乘客不再扎堆排队,可以从一个大的统一的检票口进站了,这一个检票口可以同时检票多个车次。这个大的检票口就相当于 Selector,车次就相当于 Channel,旅客就相当于I/O 流。

在Linux中,AIO并未真正使用操作系统所提供的异步I/O,它仍然使用poll或epoll,并将
API封装为异步I/O的样子,但是其本质仍然是同步非阻塞I/O,加上第三方产品的出现,
Java网络编程明显落后,所以没有成为主流。

DMA和Channel的区别, DMA需要占用总线, 那么Channel是如何跳过总线向内存传输数据的????

回复: 一个设备接口试图通过总线直接向外部设备(磁盘)传送数据时,它会先向CPU发送DMA请求信号。外部设备(磁盘)通过DMA的一种专门接口电路――DMA控制器(DMAC),向CPU提出接管总线控制权的总线请求,CPU收到该信号后,在当前的总线周期结束后,会按DMA信号的优先级和提出DMA请求的先后顺序响应DMA信号。CPU对某个设备接口响应DMA请求时,会让出总线控制权。于是在DMA控制器的管理下,磁盘和存储器直接进行数据交换,而不需CPU干预。数据传送完毕后,设备接口会向CPU发送DMA结束信号,交还总线控制权。

而通道则是在DMA的基础上增加了能执行有限通道指令的I/O控制器,代替CPU管理控制外设。通道有自己的指令系统,是一个协处理器,他实质是一台能够执行有限的输入输出指令,并且有专门通讯传输的通道总线完成控制。

网络通信优化之序列化:避免使用Java序列化

这个编码和解码过程我们称之为序列化与反序列化

Java 序列化的缺陷

  1. 无法跨语言
    1. 易被攻击
    1. 序列化后的流太大
    1. 序列化性能太差

目前业内优秀的序列化框架有很多,而且大部分都避免了 Java 默认序列化的一些缺陷。例
如,最近几年比较流行的 FastJson、Kryo、Protobuf、Hessian 等。我们完全可以找一种
替换掉 Java 序列化,这里我推荐使用 Protobuf 序列化框架

网络通信优化之通信协议:如何优化RPC网络通信?

我们知道服务的拆分增加了通信的成本,特别是在一些抢购或者促销的业务场景中,如果服
务之间存在方法调用,比如,抢购成功之后需要调用订单系统、支付系统、券包系统等,这
种远程通信就很容易成为系统的瓶颈。所以,在满足一定的服务治理需求的前提下,对远程
通信的性能需求就是技术选型的主要影响因素。

SpringCloud 是基于 Feign 组件实现的 RPC 通信(基于 Http+Json 序列化实现),
Dubbo 是基于 SPI 扩展了很多 RPC 通信框架,包括 RMI、Dubbo、Hessian 等 RPC 通
信框架(默认是 Dubbo+Hessian 序列化)

RPC(Remote Process Call),即远程服务调用,是通过网络请求远程计算机程序服务的
通信技术。RPC 框架封装好了底层网络通信、序列化等技术,我们只需要在项目中引入各
个服务的接口包,就可以实现在代码中调用 RPC 服务同调用本地方法一样

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值