B/S模型中
长轮循,阻塞在服务器端,一有消息就将消息“推”给客户端,客户端收到返回消息之后,马上又发出第二次请求,如此循环
短轮循,客户端用ajax之类,过一段时间往服务器端发一个请求,不管有没有消息都立刻返回。
长轮循:适合即时聊天,比如WEBIM,发糖果的聊天工具,畅游网的结合游戏与WEB的聊天室等等。
短轮循:比如白社会,新浪微博某些模块应用。
长轮循即时,但是对服务器要求很高,一般的tomcat如果用简单的阻塞IO一台服务器支持一两千个长连接基本就快不行了,如果考虑换上nio的话,性能会好一些,但还是不会达到所谓的单台服务器支持100w,哈哈,这个时候,erlang可以骄傲的说,i can do it.
短轮循,相对来说消息没有那么即时,不过可以满足的一般的对实时要求不是太高的应用,这样对服务器的要求也低。如果是短轮循的话,用上一个nginx加上一群tomcat做集群是没有什么问题呀。
长轮循:比如WEBIM,发糖果的聊天工具,畅游网的结合游戏与WEB的聊天室
短轮循:白社会,新浪微博某些模块应用
其它例子,有木有?有木有?