”Connection reset by peer“引发的思考
闲来无事,把之前写的一个游戏服务器框架(《一个java页游服务器框架》),部署到阿里云服务器上,测试运行了下,结果看到后台log中打印出了“Connection reset by peer”。出于好奇疑问就查了一下相关资料,网上说一般有这几种:
①:服务器的并发连接数超过了其承载量,服务器会将其中一些连接Down掉;
②:客户关掉了浏览器,而服务器还在给客户端发送数据;
③:浏览器端按了Stop
但是这几种都可以排除,刚搭建的服务器,就我测试连接了下不可能超过负载,而且我这是tcp长连接与浏览器没半点关系。后来问了一些大神才知道,一个连接如果长时间不用防火墙或者路由器就会给你断开,于是就会打印如上异常。现实中的解决方法就是,客户端定时向服务器发送心跳包。才知道心跳包原来还有这个作用,说来甚是惭愧啊。
说到了心跳包自然又想到了另一个功能。客户端断电等一些列强制连接断开的情况,可以通过心跳包机制,让服务器端及时知道链接断开,从而及时清除这些无法使用的链接尸体。反过来说,如果没有心跳包,那么客户端强制断开,服务器是无法及时捕获到链接断开的事件的。然而在我测试下,强制关闭客户端,服务器端是会抛出异常的(我的这个框架使用了mina,客户端强制断开后,会调用对应的exceptionCaught方法抛出异常,然后又调用sessionClosed关闭连接)。既然服务器会抛出异常,自然我们不用通过心跳包,服务器端也能及时知道客户端连接断开的情况。
怀着强烈的好奇心就做了如下测试,由于java网络编程有bio和nio以及最新的aio,对于AIO,成产环境中我还没有接触到又用这个的,所以暂不做测试,就针对BIO和NIO做测试
(以下代码比较简单,就不做解释了。仅仅用于测试我的疑惑,某些不合理的地方也就不必在意了)
BIO测试程序:
服务器端测试代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
public
class
BIOServer {
public
static
void
main(String[] args)
throws
UnsupportedEncodingException {
byte
[] datas=
"hello"
.getBytes(
"UTF-8"
);
try
{
ServerSocket ss =
new
ServerSocket(
810
);
while
(
true
){
Socket s = ss.accept();
OutputStream os = s.getOutputStream();
os.write(datas);
}
}
catch
(IOException e) {
e.printStackTrace();
}
}
}
|
客户端程序:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
public
class
Client {
public
static
void
main(String[] args) {
try
{
Socket s =
new
Socket(
"localhost"
,
810
);
InputStream is = s.getInputStream();
byte
[] buf =
new
byte
[
1024
];
int
len=
0
;
while
((len=is.read(buf))!=-
1
){
System.out.println(
new
String(buf,
0
,len,
"utf-8"
));
}
System.in.read();
}
catch
(UnknownHostException e) {
e.printStackTrace();
}
catch
(IOException e) {
e.printStackTrace();
}
}
}
|
先运行服务器端,然后运行客户端收到服务器端发来的hello,然后强制关闭客户端,服务器端没有任何反应,这说明BIO下强制关闭客户端,服务器端是没法及时捕获的。当然在连接断开的情况下,服务器端对此连接进行读写,就会抛出异常。
NIO测试程序:
服务器端:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
|
public
class
NioServer {
public
static
void
main(String[] args)
throws
Exception {
Selector selector = Selector.open();
ServerSocketChannel serverChannel = ServerSocketChannel.open();
serverChannel.configureBlocking(
false
);
serverChannel.socket().bind(
new
InetSocketAddress(
810
));
serverChannel.register(selector, SelectionKey.OP_ACCEPT);
while
(
true
){
int
l = selector.select();
if
(l==
0
){
continue
;
}
Set<SelectionKey> sets = selector.selectedKeys();
for
(SelectionKey key :sets){
if
(key.isAcceptable()){
ServerSocketChannel tChannel = (ServerSocketChannel) key.channel();
SocketChannel clientChannel = tChannel.accept();
clientChannel.configureBlocking(
false
);
clientChannel.register(selector, SelectionKey.OP_READ);
}
else
if
(key.isReadable()){
SocketChannel clientChannel = (SocketChannel) key.channel();
ByteBuffer buf = ByteBuffer.allocate(
1024
);
int
len = clientChannel.read(buf);
if
(len==-
1
){
System.out.println(
"客户端断开了"
);
}
else
{
buf.flip();
System.out.println(
new
String(buf.array(),
0
,len,
"utf-8"
));
}
}
sets.remove(key);
}
}
}
}
|
客户端:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
public
class
Client {
public
static
void
main(String[] args) {
try
{
Socket s =
new
Socket(
"localhost"
,
810
);
OutputStream os = s.getOutputStream();
byte
[] datas=
"hello"
.getBytes(
"UTF-8"
);
os.write(datas);
System.in.read();
}
catch
(UnknownHostException e) {
e.printStackTrace();
}
catch
(IOException e) {
e.printStackTrace();
}
}
}
|
运行服务器端,然后运行客户端,可以看到服务器端打印出客户端发来的“hello”,然后强制关闭客户端,服务器端就回抛出如下异常:
通过以上测试,可以知道:BIO下,客户端强制断开,服务器端是没法及时知道的;NIO下,客户端强制断开,服务器端可以及时知道并抛出异常。有此差异肯定是因为BIO和nio使用了不同的网络模型。NIO有一个selector,我想也就是这个selector的底层对每一个连接会有检查,所以能及时知道客户端连接断开事件。我的有服务器框架就是基于mina,而mina使用的nio,所以对于强制关闭客户端,我的服务器能及时捕获到并抛出异常这个疑惑,也就算彻底明确了。