服务端使用Mongodb的Replica Set,一个Primary节点,两个Secondary。 开始一直没注意,前天设置了MMS之后发现两个Secondary节点的查询操作分配明显不平衡,其中一个的op数量似乎总是另一个的2倍。
一开始以为是mongodb配置有问题,各种排查后没有发现问题,而且原理上讲RS并不是将Primary作为proxy进行load balance,也就不可能是因为mongodb的配置导致的分配不均,在使用Java的Driver测试后发现,mongodb的Java Driver并无该问题,所以初步可以肯定问题是出现在erlang的driver里。
为了确定下不是特殊情况,在本机也测试了一下。Primary打开./mongostat, 两个Secondary设置db.setProfilingLevel(2), 单进程测试,每次find_one 200条数据,发现第一个seconday查询数约为第二个的2倍,而且mongostat显示的数据中,command大约有60几。直观感觉难道是200个查询被平均分给了3个节点,主节点又把自己的那1/3数据全部转移给了其中一个从节点?
再来看erlang driver,每次数据操作都调用mongo:do方法:
-spec do (write_mode(), read_mode(), connection() | rs_connection(), db(), action(A)) -> {ok, A} | {failure, failure()}. % IO
%@doc Execute mongo action under given write_mode, read_mode, connection, and db. Return action result or failure.
do (WriteMode, ReadMode, Connection, Database, Action) -> case connection_mode (ReadMode, Connection) of
{error, Reason} -> {failure, {connection_failure, Reason}};
{ok, Conn} ->
%% io:format("Mongo conn:~p~n", [Conn]),
PrevContext = get (mongo_action_context),
put (mongo_action_context, #context {write_mode = WriteMode, read_mode