Java NIO框架Netty教程(十二)-并发访问测试(中)

写在前面:对Netty并发问题的测试和解决完全超出了我的预期,想说的东西越来越多。所以才出现这个中篇,也就是说,一定会有下篇。至于问题点的发现,OneCoder也在努力验证中。

继续并发的问题。在《Java NIO框架Netty教程(十一)-并发访问测试(上)》中,我们测试的其实是一种伪并发的情景。底层实际只有一个Channel在运作,不会出现什么无响应的问题。而实际的并发不是这个意思的,独立的客户端,自然就会有独立的channel。也就是一个服务端很可能和很多的客户端建立关系,就有很多的Channel,进行了多次的绑定。下面我们来模拟一下这种场景。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
/**
  * Netty并发,多connection,socket并发测试
  *
  * @author lihzh(OneCoder)
  * @alia OneCoder
  * @date 2012-8-13 下午10:47:28
  */
public class ConcurrencyNettyMultiConnection {
     
     public static void main(String args[]) {
         final ClientBootstrap bootstrap = new ClientBootstrap(
                 new NioClientSocketChannelFactory(
                         Executors.newCachedThreadPool(),
                         Executors.newCachedThreadPool()));
         // 设置一个处理服务端消息和各种消息事件的类(Handler)
         bootstrap.setPipelineFactory( new ChannelPipelineFactory() {
             @Override
             public ChannelPipeline getPipeline() throws Exception {
                 return Channels.pipeline( new ObjectEncoder(),
                         new ObjectClientHandler()
                 );
             }
         });
         for ( int i = 0 ; i < 3 ; i++) {
                 bootstrap.connect( new InetSocketAddress( "127.0.0.1" , 8000 ));
         }
     }
}

看到这段代码,你可能会疑问,这是在做什么。这个验证是基于酷壳的文章《Java NIO类库Selector机制解析(上)》。他是基于Java Selector直接进行的验证,Netty是在此之上封装了一层。其实OneCoder也做了Selector层的验证。

?
01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
/**
  * Selector打开端口数量测试
  *
  * @author lihzh
  * @alia OneCoder
  */
public class ConcurrencySelectorOpen {
 
     /**
      * @author lihzh
      * @alia OneCoder
      * @throws IOException
      * @throws InterruptedException
      * @date 2012-8-15 下午1:57:56
      */
     public static void main(String[] args) throws IOException, InterruptedException {
         for ( int i = 0 ; i < 3 ; i++) {
             Selector selector = Selector.open();
             SocketChannel channel = SocketChannel.open();
             channel.configureBlocking( false );
             channel.connect( new InetSocketAddress( "127.0.0.1" , 8000 ));
             channel.register(selector, SelectionKey.OP_READ);
         }
         Thread.sleep( 300000 );
     }
}

同样,通过Process Explorer去观察端口占用情况,开始跟酷壳大哥的观察到的效果一样。当不启动Server端,也就是不实际跟Server端建立链接的时候,3次selector open,占用了6个端口。

当启动Server端,进行绑定的时候,占用了9个端口

其实,多的三个,就是实际绑定的8000端口。其余就是酷壳大哥说的内部Loop链接。也就是说,对于我们实际场景,一次链接需要的端口数是3个。操作系统的端口数和资源当然有有限的,也就是说当我们增大这个链接的时候,错误必然会发生了。OneCoder尝试一下3000次的场景,并没有出现错误,不过这么下去出错肯定是必然的。

再看看服务端的情况,

这个还是直接通过Selector连接的时候的服务端的情况,除了两个内部回环端口以外,都是通过监听的8000的端口与外界通信,所以,服务端不会有端口限制的问题。不过,也可以看到,如果对链接不控制,服务端也维持大量的连接耗费系统资源!所以,良好的编码是多么的重要。

回到我们的主题,Netty的场景。先使用跟Selector测试一样的场景,单线程,一个bootstrap,连续多次connect看看错误和端口占用的情况。代码也就是开头提供的那段代码。

看看测试结果,

同样连接后还是占用9个端口。如果手动调用了channle.close()方法,则会释放与8000链接的端口,也就是变成6个端口占用。

增大连续连接数到10000。

首先没有报错,在每次close channel情况下,客户端端口占用情况如图(服务端情况类似)。

可见,并没有像selector那样无限的增加下去。这正是Netty中worker的巨大作用,帮我们管理这些琐碎的链接。具体分析,我们留待下章,您也可以自己研究一下。(OneCoder注:如果没关闭channel,会发现对8000端口的占用,会迅速增加。系统会很卡。)

调整测试代码,用一个线程来模拟一个客户端的请求。

?
01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
/**
  * Netty并发,多connection,socket并发测试
  *
  * @author lihzh(OneCoder)
  * @alia OneCoder
  * @date 2012-8-13 下午10:47:28
  */
public class ConcurrencyNettyMultiConnection {
     
     public static void main(String args[]) {
         final ClientBootstrap bootstrap = new ClientBootstrap(
                 new NioClientSocketChannelFactory(
                         Executors.newCachedThreadPool(),
                         Executors.newCachedThreadPool()));
         // 设置一个处理服务端消息和各种消息事件的类(Handler)
         bootstrap.setPipelineFactory( new ChannelPipelineFactory() {
             @Override
             public ChannelPipeline getPipeline() throws Exception {
                 return Channels.pipeline( new ObjectEncoder(),
                         new ObjectClientHandler()
                 );
             }
         });
         for ( int i = 0 ; i < 1000 ; i++) {
             // 连接到本地的8000端口的服务端
             Thread t = new Thread( new Runnable() {
                 @Override
                 public void run() {
                     bootstrap.connect( new InetSocketAddress( "127.0.0.1" , 8000 ));
                     try {
                         Thread.sleep( 300000 );
                     } catch (InterruptedException e) {
                         e.printStackTrace();
                     }
                 }
             });
             t.start();
         }
     }
}

不出所料,跟微博上问我问题的朋友出现的问题应该是一样的:

Write: 973
Write: 974
八月 17, 2012 9:57:28 下午 org.jboss.netty.channel.SimpleChannelHandler
警告: EXCEPTION, please implement one.coder.netty.chapter.eight.ObjectClientHandler.exceptionCaught() for proper handling.
java.net.ConnectException: Connection refused: no further information

这个问题,笔者确实尚未分析出原因,仅从端口占用情况来看,跟前面的测试用例跑出的效果基本类似。应该说明不是端口不足导致的,不过OneCoder尚不敢妄下结论。待研究后,我们下回分解吧:)您有任何想法,也可以提供给我,我来进行验证。

如非特别注明,本站内容均为OneCoder原创,转载请务必注明作者和原始出处。
本文地址:http://www.coderli.com/netty-concurrency-problem-test-two

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值