dubbo的transporter层

本文详细介绍了Dubbo的Transporter层,该层作为网络传输层,实现了对NettyServer和NettyClient等服务器的抽象与适配。通过桥梁模式,将抽象与实现解耦,使得层可以独立变化。内容包括Transporter层的设计模式解析、对上层的接口暴露以及对下层服务器的具体实现,如NettyServer和NettyClient的关键点分析。
摘要由CSDN通过智能技术生成

介绍

先来看下Dubbo的整体架构图。Transporter在倒数第二层。我用黄色线框框出来的区域。

Transporter层,属于网络传输层,是MinaNettyGrizzly这几个服务器的抽象。

为什么要单独抽象出一个Transporter层,而不是在Exchange层直接对Netty或者Mina引用?这个问题其实不难理解,Netty或者Mina对外接口和调用方式都不一样,如果在Exchange层直接对Mina做引用,对于Exchange层来讲,就依赖了具体而不是抽象,过几天想要换成Netty,就需要对Exchange层做大量的修改。这样不符合开闭原则。

Transporter层的设计,还是桥梁模式的实现。在 GoF 的《设计模式》一书中,桥接模式是这么定义的:“Decouple an abstraction from its implementation so that the two can vary independently。”翻译成中文就是:“将抽象和实现解耦,让它们可以独立变化。”

这个模式比较隐晦,挺难理解的。什么是抽象,什么是实现?它这里面的抽象指的不是抽象类或者接口。实现也不是指的具体实现类。

我这边来解释下Transporter层是怎么提现桥梁模式的,声明下:这只是我个人的理解和观点,并非官方给出。

Transporter层的的抽象是指,Dubbo抽象了一整套适合Dubbo的网络传输层的"类库"。比如:看下Transporter的接口代码。

@SPI("netty")// 默认使用netty服务器
public interface Transporter {
	
  	// 抽象出了bind行为,这个行为要完成服务端口暴露的动作,并且返回Server抽象
  	// 无论netty,mina,grizzly或者其他的一些服务器暴露接口的动作叫啥名字,这边都被抽象成了bind
  	// Exchange层只需要给URL和handler就可以完成端口暴露的动作
    Server bind(URL url, ChannelHandler handler) throws RemotingException;
		
  	// 抽象出了connect行为,这个行为要完成客户端与服务端的连接动作,并且返回Client抽象
  	// 无论netty,mina,grizzly或者其他的一些服务器做客户端连接时叫啥名字,这边都被抽象成了connect
  	// Exchange层只需要给URL和handler就可以完成端口暴露的动作
    Client connect(URL url, ChannelHandler handler) throws RemotingException;
}

Dubbo为每个服务器都做了Transporter的适配。看下面的类图结构。

除此之外,还有ServerClientEndPoint等都是Transporter层做出的抽象。看下:

// 对交互两端的抽象,分别是服务端和客户端。
public interface Endpoint {
    URL getUrl();
    ChannelHandler getChannelHandler();
    InetSocketAddress getLocalAddress();
    void send(Object message) throws RemotingException;
    void send(Object message, boolean sent) throws RemotingException;
    void close();
    void close(int timeout);
    void startClose();
    boolean isClosed();
}
// 对服务端的抽象
public interface Server extends Endpoint, Resetable {
    boolean isBound();
    Collection<Channel> getChannels();
    Channel getChannel(InetSocketAddress remoteAddress);
}
// 对客户端的抽象
public interface Client extends Endpoint, Channel, Resetable {
    void reconnect() throws RemotingException;
}

上述所举例子是Transporter层所提现的抽象,在来看下桥梁模式中的实现。实现指的是跟具体服务器相关的一套类库,分别NettyMinaGrizzly各自的类库。

这样的设计完全提现了桥梁模式的定义:将抽象和实现解耦,让它们可以独立变化。

对上层暴露的接口

说完Transporter的设计模式,来看看这个模块对上层暴露的接口。找到Transporters类。

public class Transporters {

    private Transporters() {
    
  	// 绑定动作,委托给具体的transporter实现,就是说你在配置中配置了哪种服务器就用哪种
  	// 可选项netty,netty4,mina,grizzly
    public static Server bind(URL url, ChannelHandler... handlers) throws RemotingException {
				// ----------------------此处生路一堆代码------------------------
        return getTransporter().bind(url, handler);
    }

    // 连接动作,委托给具体的transporter实现,就是说你在配置中配置了哪种服务器就用哪种
  	// 可选项netty,netty4,mina,grizzly
    public static Client connect(URL url, ChannelHandler... handlers) throws RemotingException {
				// ----------------------此处生路一堆代码------------------------
        return getTransporter().connect(url, handler);
    }
		
    // 获取Transporter的adaptive对象
    public static Transporter getTransporter() {
        return ExtensionLoader.getExtensionLoader(Transporter.class).getAdaptiveExtension();
    }
}

getTransporter这个方法是要获取Transporteradaptive对象,拿出来的是一个动态生成的适配对象。这部分不清楚的请参考dubbo扩展类的初始化SPI 自适应扩展

对下层具体服务器的适配衔接

这边以Netty4举例来说明Transporter对下层的衔接。看下NettyTransporter的代码

public class NettyTransporter implements Transporter {

    public static final String NAME = "netty4";

    @Override  // 对绑定的实现就是new NettyServer,构造方法中有具体的绑定动作。
    public Server bind(URL url, ChannelHandler listener) throws RemotingException {
        return new NettyServer(url, listener);
    }

    @Override  // 对连接的实现就是new NettyClient,构造方法中有具体的连接动作。
    public Client connect(URL url, ChannelHandler listener) throws RemotingException {
        return new NettyClient(url, listener);
    }
}
NettyServer的具体实现

下面看下NettyServer的具体实现,类比较大,挑重点来说。

public class NettyServer extends AbstractServer implements Server {

    private Map<String, Channel> channels; // <ip:port, channel> 保存了所有客户端的连接
    private ServerBootstrap bootstrap;// netty的bootstrap
    private io.netty.channel.Channel channel;	// netty的服务端channel
    private EventLoopGroup bossGroup;
    private EventLoopGroup workerGroup;

    public NettyServer(URL url, ChannelHandler handler) throws RemotingException {
      	// 这边handler被做了一次包装,目的是要在事件回调的时候把同步转换成异步,使用线程池来处理
        super(url, ChannelHandlers.wrap(handler, ExecutorUtil.setThreadName(url, SERVER_THREAD_POOL_NAME)));
    }

    @Override
    protected void doOpen() throws Throwable {
        bootstrap = new ServerBootstrap();
        bossGroup = new NioEventLoopGroup(1, new DefaultThreadFactory("NettyServerBoss", true));
        workerGroup = new NioEventLoopGroup(getUrl().getPositiveParameter(Constants.IO_THREADS_KEY, Constants.DEFAULT_IO_THREADS),
                new DefaultThreadFactory("NettyServerWorker", true));
      	// netty的handler,这个handler会接收connect,receive等事件,并且把事件传播给dubbo transporter的handler。是具体服务器的handler与transporter的handler之间的衔接。
        final NettyServerHandler nettyServerHandler = new NettyServerHandler(getUrl(), this);
        channels = nettyServerHandler.getChannels();
        bootstrap.group(bossGroup, workerGroup)
                .channel(NioServerSocketChannel.class)
                .childOption(ChannelOption.TCP_NODELAY, Boolean.TRUE)
                .childOption(ChannelOption.SO_REUSEADDR, Boolean.TRUE)
                .childOption(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT)
                .childHandler(new ChannelInitializer<NioSocketChannel>() {
                    @Override
                    protected void initChannel(NioSocketChannel ch) throws Exception {
                        NettyCodecAdapter adapter = new NettyCodecAdapter(getCodec(), getUrl(), NettyServer.this);
                        ch.pipeline()//.addLast("logging",new LoggingHandler(LogLevel.INFO))//for debug
                                .addLast("decoder", adapter.getDecoder())// 解码器
                                .addLast("encoder", adapter.getEncoder())// 编码器
                                .addLast("handler", nettyServerHandler);// netty的handler
                    }
                });
        // bind
        ChannelFuture channelFuture = bootstrap.bind(getBindAddress());
        channelFuture.syncUninterruptibly();
        channel = channelFuture.channel();
    }

    @Override
    protected void doClose() throws Throwable {
        // ----------------------此处生路一堆代码------------------------
    }

    @Override
    public Collection<Channel> getChannels() {
				// ----------------------此处生路一堆代码------------------------
    }

    @Override
    public Channel getChannel(InetSocketAddress remoteAddress) {
        return channels.get(NetUtils.toAddressString(remoteAddress));
    }

    @Override
    public boolean isBound() {
        return channel.isActive();
    }
}

如果搞过Netty的,上面这段代码,应该不难理解。说下与Transporter有关的2个值得注意点。

1.NettyServer的构造方法,Handler被做了一次包装,目的是要在事件回调的时候把同步转换成异步,使用线程池来处理。dubbo的handler机制中有详细说。

2.NettyServerHandler,这个类是Handler从具体服务器转移到Transporter Handler的关键。

NettyClient的具体实现

下面看下NettyClient的具体实现,类比较大,挑重点来说。

public abstract class AbstractClient extends AbstractEndpoint implements Client {
  	// ----------------------此处生路一堆代码------------------------
    public AbstractClient(URL url, ChannelHandler handler) throws RemotingException {
        super(url, handler);
				// ----------------------此处生路一堆代码------------------------
        doOpen(); 
				// ----------------------此处生路一堆代码------------------------
        connect();
      	// ----------------------此处生路一堆代码------------------------
    }
  	// ----------------------此处生路一堆代码------------------------
}

public class NettyClient extends AbstractClient {
  	// ----------------------此处生路一堆代码------------------------
    @Override
    protected void doOpen() throws Throwable {
        // ----------------------此处生路一堆代码------------------------
    }

    @Override
    protected void doConnect() throws Throwable {
        // ----------------------此处生路一堆代码------------------------
    }
}

典型的模板方法模式,NettyClient被构造时,先执行AbstractClient的构造方法。会调用doOpenconnect完成与服务器端的连接动作。因为代码篇幅过大,所以这边只摘抄了一个关键结构,来说明流程和关系。

总结

Transporter层的设计提现了桥梁模式,抽象与实现独立演化。关键在于思想。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值