今天在配置docker和JMX监控的时候,看到有一个细节和非容器环境中的JMX配置不太一样。所以在这里写一下,以备其他人查阅。
一般情况下,我们配置JMX只要写上下面这些参数就可以了。
以下是无密码监控时的JMX配置参数(有密码监控的配置和常规监控无异)。
-
-Dcom.sun.management.jmxremote
-
-Dcom.sun.management.jmxremote.port=9998
-
-Djava.rmi.server.hostname=<serverip>
-
-Dcom.sun.management.jmxremote.ssl=false
-
-Dcom.sun.management.jmxremote.authenticate=false
但是在docker容器中这样配置的时候,会出现这个错误。
这里就要说明一下逻辑了。为什么会这样呢? 先看docker环境的网络结构。
容器使用默认的网络模型,就是bridge模式。在这种模式下是docker run时做的DNAT规则,实现数据转发的能力。所以我们看到的网络信息是这样的:
docker中的网卡信息:
-
[root@f627e4cb0dbc /]# ifconfig
-
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
-
inet 172.18.0.3 netmask 255.255.0.0 broadcast 0.0.0.0
-
inet6 fe80::42:acff:fe12:3 prefixlen 64 scopeid 0x20<link>
-
ether 02:42:ac:12:00:03 txqueuelen 0 (Ethernet)
-
RX packets 366 bytes 350743 (342.5 KiB)
-
RX errors 0 dropped 0 overruns 0 frame 0
-
TX packets 358 bytes 32370 (31.6 KiB)
-
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
docker中的路由信息:
-
[root@a2a7679f8642 /]# netstat -r
-
Kernel IP routing table
-
Destination Gateway Genmask Flags MSS Window irtt Iface
-
default gateway 0.0.0.0 UG 0 0 0 eth0
-
172.18.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth0
-
[root@a2a7679f8642 /]#
宿主机上的对应网卡信息:
-
docker0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
-
inet 172.18.0.1 netmask 255.255.0.0 broadcast 0.0.0.0
-
ether 02:42:44:5a:12:8f txqueuelen 0 (Ethernet)
-
RX packets 6691477 bytes 4981306199 (4.6 GiB)
-
RX errors 0 dropped 0 overruns 0 frame 0
-
TX packets 6751310 bytes 3508684363 (3.2 GiB)
-
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
宿主机上的路由信息:
-
[root@7dgroup ~]# netstat -r
-
Kernel IP routing table
-
Destination Gateway Genmask Flags MSS Window irtt Iface
-
default gateway 0.0.0.0 UG 0 0 0 eth0
-
link-local 0.0.0.0 255.255.0.0 U 0 0 0 eth0
-
172.17.208.0 0.0.0.0 255.255.240.0 U 0 0 0 eth0
-
172.18.0.0 0.0.0.0 255.255.0.0 U 0 0 0 docker0
-
192.168.16.0 0.0.0.0 255.255.240.0 U 0 0 0 br-676bae33ff92
所以宿主机和容器是可以直接通信的,即便端口没有映射出来。如下所示:
-
[root@7dgroup ~]# telnet 172.18.0.3 8080
-
Trying 172.18.0.3...
-
Connected to 172.18.0.3.
-
Escape character is '^]'.
另外,因为是桥接的,宿主机上还有类似veth0b5a080的虚拟网卡设备信息,如:
-
veth0b5a080: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
-
ether 42:c3:45:be:88:1a txqueuelen 0 (Ethernet)
-
RX packets 2715512 bytes 2462280742 (2.2 GiB)
-
RX errors 0 dropped 0 overruns 0 frame 0
-
TX packets 2380143 bytes 2437360499 (2.2 GiB)
-
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
这就是虚拟网卡对veth pair,docker容器www.1818xinwen.com里一个,宿主机一个。 在这种模式下,有几个容器,主机上就会有几个veth开头的虚拟网卡设备。
但是如果不是宿主机访问的话,肯定是不通的。如下图所示:
当我们用监控机 访问的时候,会是这样的结果。
-
Zees-Air-2:~ Zee$ telnet <serverip> 8080
-
Trying <serverip>...
-
telnet: connect to address <serverip>: Connection refused
-
telnet: Unable to connect to remote host
-
Zees-Air-2:~ Zee$
因为8080是容器开的端口,并不是宿主机开的www.qmia.cn端口,其他机器是访问不了的。 这就是为什么要把端口映射出来给远程访问的原因,映射之后的端口,就会有NAT规则来保证数据包可达。
查看下NAT规则,就知道。
-
[root@7dgroup ~]# iptables -t nat -vnL
-
Chain PREROUTING (policy ACCEPT 171 packets, 9832 bytes)
-
pkts bytes target prot opt in out source destination
-
553K 33M DOCKER all -- * * 0.0.0.0/0 0.0.0.0/0 ADDRTYPE match dst-type LOCAL
-
Chain INPUT (policy ACCEPT 171 packets, 9832 bytes)
-
pkts bytes target prot opt in out source destination
-
Chain OUTPUT (policy ACCEPT 2586 packets, 156K bytes)
-
pkts bytes target prot opt in out source destination
-
205K 12M DOCKER all -- * * 0.0.0.0/0 !60.205.104.0/22 ADDRTYPE match dst-type LOCAL
-
0 0 DOCKER all -- * * 0.0.0.0/0 !127.0.0.0/8 ADDRTYPE match dst-type LOCAL
-
Chain POSTROUTING (policy ACCEPT 2602 packets, 157K bytes)
-
pkts bytes target prot opt in out source destination
-
265K 16M MASQUERADE all -- * !docker0 172.18.0.0/16 0.0.0.0/0
-
0 0 MASQUERADE all -- * !br-676bae33ff92 192.168.16.0/20 0.0.0.0/0
-
0 0 MASQUERADE tcp -- * * 192.168.0.4 192.168.0.4 tcp dpt:7001
-
0 0 MASQUERADE tcp -- * * 192.168.0.4 192.168.0.4 tcp dpt:4001
-
0 0 MASQUERADE tcp -- * * 192.168.0.5 192.168.0.5 tcp dpt:2375
-
0 0 MASQUERADE tcp -- * * 192.168.0.8 192.168.0.8 tcp dpt:8080
-
0 0 MASQUERADE tcp -- * * 172.18.0.4 172.18.0.4 tcp dpt:3306
-
0 0 MASQUERADE tcp -- * * 172.18.0.5 172.18.0.5 tcp dpt:6379
-
0 0 MASQUERADE tcp -- * * 172.18.0.2 172.18.0.2 tcp dpt:80
-
0 0 MASQUERADE tcp -- * * 172.18.0.6 172.18.0.6 tcp dpt:9997
-
0 0 MASQUERADE tcp -- * * 172.18.0.6 172.18.0.6 tcp dpt:9996
-
0 0 MASQUERADE tcp -- * * 172.18.0.6 172.18.0.6 tcp dpt:8080
-
0 0 MASQUERADE tcp -- * * 172.18.0.3 172.18.0.3 tcp dpt:9995
-
0 0 MASQUERADE tcp -- * * 172.18.0.3 172.18.0.3 tcp dpt:8080
-
Chain DOCKER (3 references)
-
pkts bytes target prot opt in out source destination
-
159K 9544K RETURN all -- docker0 * 0.0.0.0/0 0.0.0.0/0
-
0 0 RETURN all -- br-676bae33ff92 * 0.0.0.0/0 0.0.0.0/0
-
1 40 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:3307 to:172.18.0.4:3306
-
28 1486 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:6379 to:172.18.0.5:6379
-
2289 137K DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:91 to:172.18.0.2:80
-
3 192 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:9997 to:172.18.0.6:9997
-
0 0 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:9996 to:172.18.0.6:9996
-
0 0 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:9002 to:172.18.0.6:8080
-
12 768 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:9995 to:172.18.0.3:9995
-
4 256 DNAT tcp -- !docker0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:9004 to:172.18.0.3:8080
-
[root@7dgroup ~]#
我们看到了宿主机的91端口的数据会传给172.18.0.2的80端口。宿主机的3307会传给172.18.0.4的3306端口。
啰啰嗦嗦说到这里,那和JMX有啥关系。苦就苦在,JMX是这样的。
-
在注册时使用的是参数jmxremote.port,然后返回一个新的端口jmxremote.rmi.port。
-
在调用服务时使用是参数jmxremote.rmi.port。 前面提到了,因为docker在bridge模式下www.jsr9.com端口是要用-p显式指定的,不然没NAT规则,数据包不可达。所以在这种情况下,只能把jmxremote.rmi.port也暴露出去。所以必须显式指定。因为不指定的话,这个端口会随机开。随机开的端口又没NAT规则,所以是不通的了。 所以,这种情况只能指定jmxremote.rmi.port为固定值,并暴露出去。 配置如下:
-
-Dcom.sun.management.jmxremote
-
-Dcom.sun.management.jmxremote.port=9995
-
-Djava.rmi.server.hostname=<serverip>
-
-Dcom.sun.management.jmxremote.ssl=false
-
-Dcom.sun.management.jmxremote.authenticate=false
-
-Dcom.sun.management.jmxremote.rmi.port=9995
像上面的设置就是两个都是9997,这样是允许的,这种情况下注册和调用的端口就合并了。
再启动docker容器的时候,就需要这样了。
-
docker run -d -p 9003:8080 -p 9995:9995 --name 7dgroup-tomcat5
-
-e CATALINA_OPTS="-Dcom.sun.management.jmxremote \
-
-Dcom.sun.management.jmxremote.port=9995 \
-
-Djava.rmi.server.hostname=<serverip> \
-
-Dcom.sun.management.jmxremote.ssl=false \
-
-Dcom.sun.management.jmxremote.authenticate=false \
-
-Dcom.sun.management.jmxremote.rmi.port=9995" c375edce8dfd
然后就可以连接上JMX的工具了。
在有防火墙和其他的设备的网络环境中,也有可能出同样的问题。明白了JMX的注册调用逻辑之后,就可以解决各种类似的问题了。
网络链路是做性能分析的人必须想明白的技术点,所以前面说了那么多内容。
这里对于JMX工具的选择啰嗦两句。有人喜欢花哨的,有人喜欢简单的,有人喜欢黑窗口的。我觉得工具选择的时候,要看适用情况,在性能分析的时候,一定要选择合适的工具,而不是选择体现技术高超的工具。