.NET Core微服务之路:利用DotNetty实现一个简单的通信过程

  上一篇我们已经全面的介绍过《基于gRPC服务发现与服务治理的方案》,我们先复习一下RPC的调用过程(笔者会在这一节的几篇文章中反复的强调这个过程调用方案),看下图
根据上面图,服务化原理可以分为3步:
  1. 服务端启动并且向注册中心发送服务信息,注册中心收到后会定时监控服务状态(常见心跳检测);
  2. 客户端需要开始调用服务的时候,首先去注册中心获取服务信息;
  3. 客户端创建远程调用连接,连接后服务端返回处理信息;
 
第3步又可以细分,下面说说远程过程调用的原理:
目标:客户端怎么调用远程机器上的公开方法
  1. 服务发现,向注册中心获取服务(这里需要做的有很多:拿到多个服务时需要做负载均衡,同机房过滤、版本过滤、服务路由过滤、统一网关等);
  2. 客户端发起调用,将需要调用的服务、方法、参数进行组装;
  3. 序列化编码组装的消息,这里可以使用json,也可以使用xml,也可以使用protobuf,也可以使用hessian,几种方案的序列化速度还有序列化后占用字节大小都是选择的重要指标,对内笔者建议使用高效的protobuf,它基于TCP/IP二进制进行序列化,体积小,速度快。
  4. 传输协议,可以使用传统的io阻塞传输,也可以使用高效的nio传输(Netty);
  5. 服务端收到后进行反序列化,然后进行相应的处理;
  6. 服务端序列化response信息并且返回;
  7. 客户端收到response信息并且反序列化;
 
  正如上面第三步的第4条所提到,C类向S类调用时,可以选择RPC或者RESTful,而作为内部通讯,笔者强烈建议使用RPC的方式去调用S类上的所有服务,RPC对比RESTful如下:
优点:
  1. 序列化采用二进制消息,性能好/效率高(空间和时间效率都很不错);
  2. 序列化反序列化直接对应程序中的数据类,不需要解析后在进行映射(XML,JSON都是这种方式);
  3. 相比http协议,没有无用的header,简化传输数据的大小,且基于TCP层传输,速度更快,容量更小;
  4. Netty等一些框架集成(重点,也是本篇介绍的主要框架);
缺点:
  1. 使用复杂,维护成本和学习成本较高,调试困难;
  2. 因为基于HTTP2,绝大部多数HTTP Server、Nginx都尚不支持,即Nginx不能将GRPC请求作为HTTP请求来负载均衡,而是作为普通的TCP请求。(nginx1.9版本已支持);
  3. 二进制可读性差,或者几乎没有任何直接可读性,需要专门的工具进行反序列化;
  4. 默认不具备动态特性(可以通过动态定义生成消息类型或者动态编译支持,后续会介绍利用Rosyln进行动态编译的特性);

 

通信传输利器Netty(Net is DotNetty)介绍

  (先埋怨一下微软大大)我们做NET开发,十分羡慕JAVA上能有NETTY, SPRING, STRUTS, DUBBO等等优秀框架,而我们NET就只有干瞪眼,哎,无赖之前生态圈没做好,恨铁不成钢啊。不过由于近来Net Core的发布,慢慢也拉回了一小部分属于微软的天下,打住,闲话扯到这儿。
  DotNetty是Azure团队仿照(几乎可以这么说)JAVA的Netty而出来的(目前已实现Netty的一部分),目前在Github上的Star有1.8K+,地址: https://github.com/Azure/DotNetty,没有任何文档,和代码中少量的注释。虽然比Netty出来晚了很多年,不过我们NET程序员们也该庆幸了,在自己的平台上终于能用上类似Netty这样强大的通信框架了。

传统通讯的问题:

  我们使用通用的应用程序或者类库来实现互相通讯,比如,我们经常使用一个 HTTP 客户端库来从 web 服务器上获取信息,或者通过 web 服务来执行一个远程的调用。
  然而,有时候一个通用的协议或他的实现并没有很好的满足需求。比如我们无法使用一个通用的 HTTP 服务器来处理大文件、电子邮件以及近实时消息,比如金融信息和多人游戏数据。我们需要一个高度优化的协议来处理一些特殊的场景。例如你可能想实现一个优化了的 Ajax 的聊天应用、媒体流传输或者是大文件传输器,你甚至可以自己设计和实现一个全新的协议来准确地实现你的需求。
  另一个不可避免的情况是当你不得不处理遗留的专有协议来确保与旧系统的互操作性。在这种情况下,重要的是我们如何才能快速实现协议而不牺牲应用的稳定性和性能。

解决:

  Netty 是一个提供 asynchronous event-driven (异步事件驱动)的网络应用框架,是一个用以快速开发高性能、可扩展协议的服务器和客户端。
  换句话说,Netty 是一个 NIO 客户端服务器框架,使用它可以快速简单地开发网络应用程序,比如服务器和客户端的协议。Netty 大大简化了网络程序的开发过程比如 TCP 和 UDP 的 socket 服务的开发。
“快速和简单”并不意味着应用程序会有难维护和性能低的问题,Netty 是一个精心设计的框架,它从许多协议的实现中吸收了很多的经验比如 FTP、SMTP、HTTP、许多二进制和基于文本的传统协议.因此,Netty 已经成功地找到一个方式,在不失灵活性的前提下来实现开发的简易性,高性能,稳定性。
  有一些用户可能已经发现其他的一些网络框架也声称自己有同样的优势,所以你可能会问是 Netty 和它们的不同之处。答案就是 Netty 的哲学设计理念。Netty 从开始就为用户提供了用户体验最好的 API 以及实现设计。正是因为 Netty 的哲学设计理念,才让您得以轻松地阅读本指南并使用 Netty。

(DotNetty的框架和实现是怎么回事,笔者不太清楚,但完全可参考Netty官方的文档来学习和使用DotNetty相关的API接口)

 

DotNetty中几个重要的库(程序集):

DotNetty.Buffers: 对内存缓冲区管理的封装。
DotNetty.Codecs: 对编解码是封装,包括一些基础基类的实现,我们在项目中自定义的协议,都要继承该项目的特定基类和实现。
DotNetty.Codecs.Mqtt: MQTT(消息队列遥测传输)编解码是封装,包括一些基础基类的实现。
DotNetty.Codecs.Protobuf: Protobuf 编解码是封装,包括一些基础基类的实现。
DotNetty.Codecs.ProtocolBuffers: ProtocolBuffers编解码是封装,包括一些基础基类的实现。
DotNetty.Codecs.Redis: Redis 协议编解码是封装,包括一些基础基类的实现。
DotNetty.Common: 公共的类库项目,包装线程池,并行任务和常用帮助类的封装。
DotNetty.Handlers: 封装了常用的管道处理器,比如Tls编解码,超时机制,心跳检查,日志等。
DotNetty.Transport: DotNetty核心的实现,Socket基础框架,通信模式:异步非阻塞。
DotNetty.Transport.Libuv: DotNetty自己实现基于Libuv (高性能的,事件驱动的I/O库) 核心的实现。
常用的库有Codecs, Common, Handlers, Buffers, Transport,目前Azure团队正在实现其他Netty中的API(包括非公共Netty的API),让我们拭目以待吧。
 

直接上点对点之间通讯的栗子

  DotNetty的Example文件夹下有许多官方提供的实例,有抛弃服务实例(Discard),有应答服务实例(echo),有Telnet服务实例等等,为了实现直接点对点通讯,笔者采用了Echo的demo,此后的RPC调用也会基于Echo而实现,注释详细,直接上接收端(Server)的代码:
  1 /*
  2 * Netty 是一个半成品,作用是在需要基于自定义协议的基础上完成自己的通信封装
  3 * Netty 大大简化了网络程序的开发过程比如 TCP 和 UDP 的 socket 服务的开发。
  4 * “快速和简单”并不意味着应用程序会有难维护和性能低的问题,
  5 * Netty 是一个精心设计的框架,它从许多协议的实现中吸收了很多的经验比如 FTP、SMTP、HTTP、许多二进制和基于文本的传统协议。
  6 * 因此,Netty 已经成功地找到一个方式,在不失灵活性的前提下来实现开发的简易性,高性能,稳定性。
  7 */
  8 
  9 namespace Echo.Server
 10 {
 11     using System;
 12     using System.Threading.Tasks;
 13     using DotNetty.Codecs;
 14     using DotNetty.Handlers.Logging;
 15     using DotNetty.Transport.Bootstrapping;
 16     using DotNetty.Transport.Channels;
 17     using DotNetty.Transport.Libuv;
 18     using Examples.Common;
 19 
 20     static class Program
 21     {
 22         static async Task RunServerAsync()
 23         {
 24             ExampleHelper.SetConsoleLogger();
 25             
 26             // 申明一个主回路调度组
 27             var dispatcher = new DispatcherEventLoopGroup();
 28 
 29             /*
 30              Netty 提供了许多不同的 EventLoopGroup 的实现用来处理不同的传输。
 31              在这个例子中我们实现了一个服务端的应用,因此会有2个 NioEventLoopGroup 会被使用。
 32              第一个经常被叫做‘boss’,用来接收进来的连接。第二个经常被叫做‘worker’,用来处理已经被接收的连接,一旦‘boss’接收到连接,就会把连接信息注册到‘worker’上。
 33              如何知道多少个线程已经被使用,如何映射到已经创建的 Channel上都需要依赖于 IEventLoopGroup 的实现,并且可以通过构造函数来配置他们的关系。
 34              */
 35 
 36             // 主工作线程组,设置为1个线程
 37             IEventLoopGroup bossGroup = dispatcher; // (1)
 38             // 子工作线程组,设置为1个线程
 39             IEventLoopGroup workerGroup = new WorkerEventLoopGroup(dispatcher);
 40 
 41             try
 42             {
 43                 // 声明一个服务端Bootstrap,每个Netty服务端程序,都由ServerBootstrap控制,通过链式的方式组装需要的参数
 44                 var serverBootstrap = new ServerBootstrap(); // (2)
 45                 // 设置主和工作线程组
 46                 serverBootstrap.Group(bossGroup, workerGroup);
 47 
 48                 // 申明服务端通信通道为TcpServerChannel
 49                 serverBootstrap.Channel<TcpServerChannel>(); // (3)
 50 
 51                 serverBootstrap
 52                     // 设置网络IO参数等
 53                     .Option(ChannelOption.SoBacklog, 100) // (5)
 54 
 55                     // 在主线程组上设置一个打印日志的处理器
 56                     .Handler(new LoggingHandler("SRV-LSTN"))
 57 
 58                     // 设置工作线程参数
 59                     .ChildHandler(
 60                         /*
 61                          * ChannelInitializer 是一个特殊的处理类,他的目的是帮助使用者配置一个新的 Channel。
 62                          * 也许你想通过增加一些处理类比如DiscardServerHandler 来配置一个新的 Channel 或者其对应的ChannelPipeline 来实现你的网络程序。
 63                          * 当你的程序变的复杂时,可能你会增加更多的处理类到 pipline 上,然后提取这些匿名类到最顶层的类上。
 64                          */
 65                         new ActionChannelInitializer<IChannel>( // (4)
 66                             channel =>
 67                             {
 68                                 /*
 69                                  * 工作线程连接器是设置了一个管道,服务端主线程所有接收到的信息都会通过这个管道一层层往下传输,
 70                                  * 同时所有出栈的消息 也要这个管道的所有处理器进行一步步处理。
 71                                  */
 72                                 IChannelPipeline pipeline = channel.Pipeline;
 73 
 74                                 // 添加日志拦截器
 75                                 pipeline.AddLast(new LoggingHandler("SRV-CONN"));
 76 
 77                                 // 添加出栈消息,通过这个handler在消息顶部加上消息的长度。
 78                                 // LengthFieldPrepender(2):使用2个字节来存储数据的长度。
 79                                 pipeline.AddLast("framing-enc", new LengthFieldPrepender(2));
 80 
 81                                 /*
 82                                   入栈消息通过该Handler,解析消息的包长信息,并将正确的消息体发送给下一个处理Handler
 83                                   1,InitialBytesToStrip = 0,       //读取时需要跳过的字节数
 84                                   2,LengthAdjustment = -5,         //包实际长度的纠正,如果包长包括包头和包体,则要减去Length之前的部分
 85                                   3,LengthFieldLength = 4,         //长度字段的字节数 整型为4个字节
 86                                   4,LengthFieldOffset = 1,         //长度属性的起始(偏移)位
 87                                   5,MaxFrameLength = int.MaxValue, //最大包长
 88                                  */
 89                                 pipeline.AddLast("framing-dec", new LengthFieldBasedFrameDecoder(ushort.MaxValue, 0, 2, 0, 2));
 90 
 91                                 // 业务handler
 92                                 pipeline.AddLast("echo", new EchoServerHandler());
 93                             }));
 94 
 95                 // bootstrap绑定到指定端口的行为就是服务端启动服务,同样的Serverbootstrap可以bind到多个端口
 96                 IChannel boundChannel = await serverBootstrap.BindAsync(ServerSettings.Port); // (6)
 97 
 98                 Console.WriteLine("wait the client input");
 99                 Console.ReadLine();
100 
101                 // 关闭服务
102                 await boundChannel.CloseAsync();
103             }
104             finally
105             {
106                 // 释放指定工作组线程
107                 await Task.WhenAll( // (7)
108                     bossGroup.ShutdownGracefullyAsync(TimeSpan.FromMilliseconds(100), TimeSpan.FromSeconds(1)),
109                     workerGroup.ShutdownGracefullyAsync(TimeSpan.FromMilliseconds(100), TimeSpan.FromSeconds(1))
110                 );
111             }
112         }
113 
114         static void Main() => RunServerAsync().Wait();
115     }
116 }
View Code
  1. IEventLoopGroup 是用来处理I/O操作的多线程事件循环器,DotNetty 提供了许多不同的 EventLoopGroup 的实现用来处理不同的传输。在这个例子中我们实现了一个服务端的应用,因此会有2个 IEventLoopGroup 会被使用。第一个经常被叫做‘boss’,用来接收进来的连接。第二个经常被叫做‘worker’,用来处理已经被接收的连接,一旦‘boss’接收到连接,就会把连接信息注册到‘worker’上。
  2. ServerBootstrap 是一个启动 Transport 服务的辅助启动类。你可以在这个服务中直接使用 Channel,但是这会是一个复杂的处理过程,在很多情况下你并不需要这样做。
  3. 这里我们指定使用 TcpServerChannel类来举例说明一个新的 Channel 如何接收进来的连接。
  4. ChannelInitializer 是一个特殊的处理类,他的目的是帮助使用者配置一个新的 Channel,当你的程序变的复杂时,可能你会增加更多的处理类到 pipline 上,然后提取这些匿名类到最顶层的类上。
  5. 你可以设置这里指定的 Channel 实现的配置参数。我们正在写一个TCP/IP 的服务端,因此我们被允许设置 socket 的参数选项比如tcpNoDelay 和 keepAlive。
  6. 绑定端口然后启动服务,这里我们在机器上绑定了机器网卡上的设置端口,当然现在你可以多次调用 bind() 方法(基于不同绑定地址)。
  7. 使用完成后,优雅的释放掉指定的工作组线程,当然,你可以选择关闭程序,但这并不推荐。

 

Server端的事件处理代码:

上一部分代码中加粗地方的实现

 1 namespace Echo.Server
 2 {
 3     using System;
 4     using System.Text;
 5     using DotNetty.Buffers;
 6     using DotNetty.Transport.Channels;
 7 
 8     /// <summary>
 9     /// 服务端处理事件函数
10     /// </summary>
11     public class EchoServerHandler : ChannelHandlerAdapter // ChannelHandlerAdapter 业务继承基类适配器 // (1)
12     {
13         /// <summary>
14         /// 管道开始读
15         /// </summary>
16         /// <param name="context"></param>
17         /// <param name="message"></param>
18         public override void ChannelRead(IChannelHandlerContext context, object message) // (2)
19         {
20             if (message is IByteBuffer buffer)    // (3)
21             {
22                 Console.WriteLine("Received from client: " + buffer.ToString(Encoding.UTF8));
23             }
24 
25             context.WriteAsync(message); // (4)
26         }
27 
28         /// <summary>
29         /// 管道读取完成
30         /// </summary>
31         /// <param name="context"></param>
32         public override void ChannelReadComplete(IChannelHandlerContext context) => context.Flush(); // (5)
33 
34         /// <summary>
35         /// 出现异常
36         /// </summary>
37         /// <param name="context"></param>
38         /// <param name="exception"></param>
39         public override void ExceptionCaught(IChannelHandlerContext context, Exception exception)
40         {
41             Console.WriteLine("Exception: " + exception);
42             context.CloseAsync();
43         }
44     }
45 }
View Code
  1. DiscardServerHandler 继承自 ChannelInboundHandlerAdapter,这个类实现了IChannelHandler接口,IChannelHandler提供了许多事件处理的接口方法,然后你可以覆盖这些方法。现在仅仅只需要继承 ChannelInboundHandlerAdapter 类而不是你自己去实现接口方法。
  2. 这里我们覆盖了 chanelRead() 事件处理方法。每当从客户端收到新的数据时,这个方法会在收到消息时被调用,这个例子中,收到的消息的类型是 ByteBuf。
  3. 为了响应或显示客户端发来的信息,为此,我们将在控制台中打印出客户端传来的数据。
  4. 然后,我们将客户端传来的消息通过context.WriteAsync写回到客户端。
  5. 当然,步骤4只是将流缓存到上下文中,并没执行真正的写入操作,通过执行Flush将流数据写入管道,并通过context传回给传来的客户端。

 

 Client端代码:

 重点看注释的地方,其他地方跟Server端没有任何区别

 1 namespace Echo.Client
 2 {
 3     using System;
 4     using System.Net;
 5     using System.Text;
 6     using System.Threading.Tasks;
 7     using DotNetty.Buffers;
 8     using DotNetty.Codecs;
 9     using DotNetty.Handlers.Logging;
10     using DotNetty.Transport.Bootstrapping;
11     using DotNetty.Transport.Channels;
12     using DotNetty.Transport.Channels.Sockets;
13     using Examples.Common;
14 
15     static class Program
16     {
17         static async Task RunClientAsync()
18         {
19             ExampleHelper.SetConsoleLogger();
20             
21             var group = new MultithreadEventLoopGroup();
22 
23             try
24             {
25                 var bootstrap = new Bootstrap();
26                 bootstrap
27                     .Group(group)
28                     .Channel<TcpSocketChannel>()
29                     .Option(ChannelOption.TcpNodelay, true)
30                     .Handler(
31                         new ActionChannelInitializer<ISocketChannel>(
32                             channel =>
33                             {
34                                 IChannelPipeline pipeline = channel.Pipeline;
35                                 pipeline.AddLast(new LoggingHandler());
36                                 pipeline.AddLast("framing-enc", new LengthFieldPrepender(2));
37                                 pipeline.AddLast("framing-dec", new LengthFieldBasedFrameDecoder(ushort.MaxValue, 0, 2, 0, 2));
38 
39                                 pipeline.AddLast("echo", new EchoClientHandler());
40                             }));
41 
42                 IChannel clientChannel = await bootstrap.ConnectAsync(new IPEndPoint(ClientSettings.Host, ClientSettings.Port));
43                 
44                 // 建立死循环,类同于While(true)
45                 for (;;) // (4)
46                 {
47                     Console.WriteLine("input you data:");
48                     // 根据设置建立缓存区大小
49                     IByteBuffer initialMessage = Unpooled.Buffer(ClientSettings.Size); // (1)
50                     string r = Console.ReadLine();
51                     // 将数据流写入缓冲区
52                     initialMessage.WriteBytes(Encoding.UTF8.GetBytes(r ?? throw new InvalidOperationException())); // (2)
53                     // 将缓冲区数据流写入到管道中
54                     await clientChannel.WriteAndFlushAsync(initialMessage); // (3)
55                     if(r.Contains("bye"))
56                         break;
57                 }
58 
59                 Console.WriteLine("byebye");
60                 
61 
62                 await clientChannel.CloseAsync();
63             }
64             finally
65             {
66                 await group.ShutdownGracefullyAsync(TimeSpan.FromMilliseconds(100), TimeSpan.FromSeconds(1));
67             }
68         }
69 
70         static void Main() => RunClientAsync().Wait();
71     }
72 }
View Code
  1. 初始化一个缓冲区的大小。
  2. 默认缓冲区接受的数据类型为bytes[],当然这样也更加便于序列化成流。
  3. 将缓冲区的流直接数据写入到Channel管道中。该管道一般为链接通讯的另一端(C端)。
  4. 建立死循环,这样做的目的是为了测试每次都必须从客户端输入的数据,通过服务端回路一次后,再进行下一次的输入操作。

 

Client端的事件处理代码:
 1 namespace Echo.Client
 2 {
 3     using System;
 4     using System.Text;
 5     using DotNetty.Buffers;
 6     using DotNetty.Transport.Channels;
 7 
 8     public class EchoClientHandler : ChannelHandlerAdapter
 9     {
10         readonly IByteBuffer initialMessage;
11 
12         public override void ChannelActive(IChannelHandlerContext context) => context.WriteAndFlushAsync(this.initialMessage);
13 
14         public override void ChannelRead(IChannelHandlerContext context, object message)
15         {
16             if (message is IByteBuffer byteBuffer)
17             {
18                 Console.WriteLine("Received from server: " + byteBuffer.ToString(Encoding.UTF8));
19             }
20         }
21 
22         public override void ChannelReadComplete(IChannelHandlerContext context) => context.Flush();
23 
24         public override void ExceptionCaught(IChannelHandlerContext context, Exception exception)
25         {
26             Console.WriteLine("Exception: " + exception);
27             context.CloseAsync();
28         }
29     }
30 }
View Code
非常简单,将数据流显示到控制台。
 
实现结果
  至此,我们使用DotNetty框架搭建简单的应答服务器就这样做好了,很简单,实现效果如下:
  C端主动向S端主动发送数据后,S端收到数据,在控制台打印出数据,并回传给C端,当然,S端还可以做很多很多的事情。

 

 

DotNetty内部调试记录分析

  虽然DotNetty官方没有提供任何技术文档,但官方却提供了详细的调试记录,很多时候,我们学习者其实也可以通过调试记录来分析某一个功能的实现流程。我们可以通过将DotNetty的内部输入输出记录打印到控制台上。

InternalLoggerFactory.DefaultFactory.AddProvider(new ConsoleLoggerProvider((s, level) => true, false));

  可以看到服务端的打印记录一下多出来了许多许多,有大部分是属于DotNetty内部调试时的打印记录,我们只着重看如下的部分。

dbug: SRV-LSTN[0]
      [id: 0x3e8afca1] HANDLER_ADDED
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1] REGISTERED (1)
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1] BIND: 0.0.0.0:80072wait the client input
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1, 0.0.0.0:8007] ACTIVE (3)
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1, 0.0.0.0:8007] READ (4)
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1, 0.0.0.0:8007] RECEIVED: [id: 0x7bac2775, 127.0.0.1:64073 :> 127.0.0.1:8007] (5)
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1, 0.0.0.0:8007] RECEIVED_COMPLETE (6)
dbug: SRV-LSTN[0]
      [id: 0x3e8afca1, 0.0.0.0:8007] READ (7)
dbug: SRV-CONN[0]
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] HANDLER_ADDED (8)
dbug: SRV-CONN[0]
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] REGISTERED (9)
dbug: SRV-CONN[0]
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] ACTIVE (10)
dbug: SRV-CONN[0]
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] READ (11)
dbug: DotNetty.Buffers.AbstractByteBuffer[0]    (12-Dio.netty.buffer.bytebuf.checkAccessible: True
dbug: SRV-CONN[0]
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] RECEIVED: 14B (13+-------------------------------------------------+
               |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |
      +--------+-------------------------------------------------+----------------+
      |100000000| 00 0C 68 65 6C 6C 6F 20 77 6F 72 6C 64 21      |..hello world!  |
      +--------+-------------------------------------------------+----------------+
Received from client: hello world!
dbug: SRV-CONN[0]    (14)
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] WRITE: 2B
               +-------------------------------------------------+
               |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |
      +--------+-------------------------------------------------+----------------+
      |100000000| 00 0C                                          |..              |
      +--------+-------------------------------------------------+----------------+
dbug: SRV-CONN[0] (15)
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] WRITE: 12B
               +-------------------------------------------------+
               |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |
      +--------+-------------------------------------------------+----------------+
      |100000000| 68 65 6C 6C 6F 20 77 6F 72 6C 64 21            |hello world!    |
      +--------+-------------------------------------------------+----------------+
dbug: SRV-CONN[0] (16)
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] RECEIVED_COMPLETE
dbug: SRV-CONN[0] (17)
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] FLUSH
dbug: SRV-CONN[0] (18)
      [id: 0x7bac2775, 127.0.0.1:64073 => 127.0.0.1:8007] READ

咋一看,有18个操作,好像有点太多了,其实不然,还有很多很多的内部调试细节并没打印到控制台上。

  1. 通过手动建立的工作线程组,并将这组线程注册到管道中,这个管道可以是基于SOCKER,可以基于IChannel(1);
  2. 绑定自定的IP地址和端口号到自定义管道上(2);
  3. 激活自定义管道(3);
  4. 开始读取(其实也是开始监听)(4);
  5. 收到来自id为0x7bac2775的客户端连接请求,建立连接,并继续开始监听(5)(6)(7);
  6. 从第8步开始,日志已经变成id为0x7bac2775的记录了,当然一样包含注册管道,激活管道,开始监听等等与S端一模一样的操作(8)(9)(10)(11)
  7. 当笔者输入一条"hello world!"数据后,DotNetty.Buffers.AbstractByteBuffer会进行数据类型检查,以便确认能将数据放入到管道中。(12)
  8. 将数据发送到S端,数据大小为14B,hello world前有两个点,代表这是数据头,紧接着再发送两个点,但没有任何数据,代表数据已经结束。DotNetty将数据的十六进制存储位用易懂的方式表现了出来,很人性化。(13)(14)
  9. S端收到数据没有任何加工和处理,马上将数据回传到C端。(15)(16)
  10. 最后,当这个过程完成后,需要将缓存区的数据强制写入到管道中,所以会执行一次Flush操作,整个传输完成。接下来,不管是C端还是S端,继续将自己的状态改成READ,用于监听管道中的各种情况,比如连接状态,数据传输等等(17)。

 

总结

  对于刚开始接触Socket编程的朋友而言,这是个噩梦,因为Socket编程的复杂性不会比多线程容易,甚至会更复杂。协议,压缩,传输,多线程,监听,流控制等等一系列问题摆在面前,因此而诞生了Netty这样优秀的开源框架,但是Netty是个半成品,因为你需要基于他来实现自己想要的协议,传输等等自定义操作,而底层的内容,你完全不用关心。不像某些框架,比如Newtonsoft.Json这样的功能性框架,不用配置,不用自定义,直接拿来用就可以了。
  虽然DotNetty帮我们实现了底层大量的操作,但如果不熟悉或者一点也不懂网络通信,同样对上面的代码是一头雾水,为何?行情需要,我们程序员天天都在赶业务,哪有时间去了解和学习更多的细节...通过将调试记录打印出来,并逐行挨个的对照代码进行分析,就会慢慢开始理解最简单的通信流程了。
  本篇只是实现了基于DotNetty最简单的通讯过程,也只是将数据做了一下回路,并没做到任何与RPC有关的调用,下一篇我们开始讲这个例子深入,介绍基于DotNetty的RPC调用。
 
 
码字不易,感谢阅读!

 

转载于:https://www.cnblogs.com/SteveLee/p/Simple_Rpc_Demo_Base.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值