nc_run函数一共没几行。主要的函数有core_start, core_loop以及core_stop.
其中core_start用来初始化conn,mbuf,msg这些重要数据结构的基本参数值,更重要的是根据配置文件以及命令行参数设置该实例中的context变量(上一节我们提到过一个twemproxy实例对应于一个context变量ctx)
core_loop函数主要是在调用event_wait等待io事件的发生。
core_stop则是对于core_start函数的反向操作
1.core_start
core_start的功能有给重要的数据结构conn,mbuf,msg 设置基础参数(比如每个mbuf大小等),另外就是用core_ctx_create给instance的context变量ctx赋值。
这里面我们着重讲一下core_ctx_create
这个函数按照配置文件以及命令行参数,给该contex类型变量ctx 赋值。
赋值中的主要操作有:
1). ctx->cf = conf_create(nci->conf_filename); 这个函数给ctx中的cf变量赋值。
2).server_pool_init(&ctx->pool, &ctx->cf->pool, ctx);这个函数根据ctx->cf->pool(这可是个数组啊不是单个pool类型 )的信息,构建ctx的pool数组(contex的pool类型也是array)。
3).ctx->stats = stats_create(nci->stats_port, nci->stats_addr, nci->stats_interval,nci->hostname, &ctx->pool);
这个函数保证在在ctx->stats->current(或者ctx->stats->shadow或者ctx->stats->sum)上,每一个server_poo都有一个stats_server_pool.而每一个 server都对应一个stats_server。而且(stats_server与stats_server_pool的关系)与(server和server_pool)之间的关系一致。
同样的,所有的stats_server_pool组成了ctx->stats->current(或者ctx->stats->shadow或者ctx->stats->sum)的一个数组(即结构成员stats_pool),就像所有的server_pool组成了ctx中的一个数组(结构成员server_pool)一样。是有点绕哈,不过这个一一对应关系,还是很好理解的。
4). ctx->evb = event_base_create(EVENT_SIZE, &core_core);
5).
status = server_pool_preconnect(ctx);函数
如果设定了server_pre_connect,则提前建立与后端redisserver的连接
6).
status = proxy_init(ctx);
2. core_loop
3.core_stop
下一章中我们将探讨twemproxy中所用的epoll机制。