server program
文章平均质量分 86
turkeyzhou
某互联网公司,从事服务器后台开发。
展开
-
网络游戏的位置同步
有关位置同步的方案实际上已经比较成熟,网上也有比较多的资料可供参考。在《带宽限制下的视觉实体属性传播》一文中,作者也简单提到了位置同步方案的构造过程,但涉及到细节的地方没有深入,这里专门针对这一主题做些回顾。 最直接的同步方案就是客户端在每次发生位置改变时都向服务器报告 ,服务器再转发给周围的其他玩家,其他客户端将对应的游戏实体移动到新的位置上。 但是这样存在一个问题,每个玩家的位置都转载 2010-04-21 14:09:00 · 1371 阅读 · 0 评论 -
立体化监控
原创 2011-09-09 21:44:12 · 1030 阅读 · 0 评论 -
理解 LINUX 的处理器负载均值
你可能对于 Linux 的负载均值(load averages)已有了充分的了解。负载均值在 uptime 或者 top 命令中可以看到,它们可能会显示成这个样子:load average: 0.09, 0.05, 0.01很多人会这样理解负载均值:三个数分别代表不同时间段的系统平均负载(一分钟、五 分钟、以及十五分钟),它们的数字当然是越小越好。数字越高,说明服务器的负载越 大,这也转载 2012-05-01 16:52:10 · 912 阅读 · 0 评论 -
过载保护
过载保护,看似简单,但是要做好并不容易。这里用两个曾经经历的反面案例,给出过载保护的直观展现,并附上一点感想。案例一基本情况如下图,进程A是一个单进程系统,通过udp套接字接收前端请求进行处理。在处理过程中,需要访问后端系统B,是同步的方式访问后端系统B,根据后端系统B的SLA,超时时间设置是100ms。前端用户请求的超时时间是1s。进程A的时序是:Step1: 从socket转载 2012-05-02 15:10:53 · 1980 阅读 · 0 评论 -
多队列网卡简介
多队列网卡是一种技术,最初是用来解决网络IO QoS (quality of service)问题的,后来随着网络IO的带宽的不断提升,单核CPU不能完全处满足网卡的需求,通过多队列网卡驱动的支持,将各个队列通过中断绑定到不同的核上,以满足网卡的需求。常见的有Intel的82575、82576,Boardcom的57711等,下面以公司的服务器使用较多的Intel 82575网卡为例,分析一下转载 2012-05-02 15:22:03 · 52000 阅读 · 3 评论 -
udp丢包
本文讨论的udp丢包是指网卡接收到数据包后,linux内核的tcp/ip协议栈在udp数据包处理过程中的丢包,主要原因有两个:1) udp数据包格式错误或校验和检查失败2) 应用程序来不及处理udp数据包对于原因1),udp数据包本身的错误很少见,应用程序也不可控,本文不讨论。 首先介绍通用的udp丢包检测方法,使用netstat命令,加-su参数。原创 2012-05-01 17:41:02 · 15899 阅读 · 2 评论 -
绑定cpu
1)查看网卡对应的中断号 cat /proc/interrupts 查看中断信息,其中第一列的50就是中断号,3362410030是指已经在cpu0上处理中断的次数。2)登陆对应目录,50就是上面的中断号3)修改smp_affinity文件的值测试服务器CPU为四核,理论上网卡的smp_affinity值为1、2、4、8分别对应cpu0、cpu1、cpu2、cpu3。结果原创 2012-05-01 17:54:16 · 1303 阅读 · 0 评论 -
关于字符编码
原文地址:http://blog.csdn.net/fmddlmyy/article/details/372148这是一篇程序员写给程序员的趣味读物。所谓趣味是指可以比较轻松地了解一些原来不清楚的概念,增进知识,类似于打RPG游戏的升级。整理这篇文章的动机是两个问题:问题一:使用Windows记事本的“另存为”,可以在GBK、Unicode、Unicode big endian转载 2013-06-04 16:28:30 · 838 阅读 · 0 评论 -
性能调优攻略
关于性能优化这是一个比较大的话题,在《由12306.cn谈谈网站性能技术》中我从业务和设计上说过一些可用的技术以及那些技术的优缺点,今天,想从一些技术细节上谈谈性能优化,主要是一些代码级别的技术和方法。本文的东西是我的一些经验和知识,并不一定全对,希望大家指正和补充。在开始这篇文章之前,大家可以移步去看一下酷壳以前发表的《代码优化概要》,这篇文章基本上告诉你——要进行优化,先得找到性能瓶颈转载 2013-11-19 09:57:06 · 2031 阅读 · 0 评论 -
并发处理模型, 从 Reactor 到 Coproc
http://randomtaste.appspot.com/view/page/coproc简介本文介绍一个正在开发的 C++ 服务框架 coproc 在并发处理模型上的设计思路. coproc 基于 libevent 和基本的 Reacto原创 2011-09-09 20:17:21 · 3438 阅读 · 0 评论 -
内存池技术介绍
看到一篇关于内存池技术的介绍文章,受益匪浅,转贴至此。 原贴地址:http://www.ibm.com/developerworks/cn/linux/l-cn-ppp/index6.html 6.1 自定义内存池性能优化的原理 如前所述,读者原创 2011-09-09 19:57:11 · 1121 阅读 · 0 评论 -
记一次HTTP 服务实战
1. 引子今日来,由于手机终端需要通过CMWAP HTTP访问服务器,服务器这边必须解析HTTP请求,并且进行协议解析,进行业务操作,将结果反馈至手机终端。 由于手机终端机遇WTK,采用HttpConnection,故服务器必须能够读取http request body中的信息进行协议解析; 2. 解析Request下面是从firebug中抓原创 2010-04-26 16:12:00 · 1925 阅读 · 0 评论 -
Comet:基于 HTTP 长连接的“服务器推”技术
文档选项 将此页作为电子邮件发送级别: 中级周 婷 (zhouting@cn.ibm.com), 软件工程师, IBM 中国软件开发技术实验室2007 年 8 月 31 日很多应用譬如监控、即时通信、即时报价系统都需要转载 2010-04-27 09:09:00 · 1548 阅读 · 0 评论 -
Tomcat 系统架构与设计模式,第 1 部分: 工作原理
这个分为两个部分的系列文章将研究 Apache Tomcat 的系统架构以及其运用的很多经典设计模式。本文是第 1 部分,将主要从 Tomcat 如何分发请求、如何处理多用户同时请求,还有它的多级容器是如何协调工作的角度来分析 Tomcat 的工作原理,这也是一个 Web 服务器首要解决的关键问题。转载 2010-06-27 23:46:00 · 1456 阅读 · 0 评论 -
构建可伸缩,高性能的互联网应用
一应用无状态<br /> 俗话说,一个系统的伸缩性的好坏取决于应用的状态如何管理。为什么这么说呢?咱们试想一下,假如我们在session中保存了大量与客户端的状态信息的话,那么当保存状态信息的server宕机的时候,我们怎么办?通常来说,我们都是通过集群来解决这个问题,而通常所说的集群,不仅有负载均衡,更重要的是要有失效恢复failover,比如tomcat采用的集群节点广播复制,jboss采用的配对复制等session状态复制策略,但是集群中的状态恢复也有其缺点,那就是严重影响了系统的伸缩性,转载 2010-07-13 23:13:00 · 960 阅读 · 0 评论 -
服务器端编程的十大性能问题
今年5月底,瑞士计算机世界杂志上刊登了Web性能诊断专家Bernd Greifeneder的一篇文章,文章列举了其在过去几年工作中所遇到的服务器端编程的十大性能问题。Andreas Grabner则在自己的博客上对这些性能问题给出了进一步阅读的链接。希望这些问题与相关的延伸阅读能为广大的InfoQ读者带来一定的启示。转载 2011-03-11 01:40:00 · 771 阅读 · 0 评论 -
Myspace六次重构经验教你打造分布式系统
这是我在网上无意中看到的一篇文章,介绍了myspace的六次重构,对于做海量用户系统的朋友来说,应该能从中受到很多启发. 通过了解MySpace的六次重构经历,来认识分布式系统到底该如何创建.在每个里程碑,站点负担都会超过底层系统部分组件的最大载荷,特别是数据库和存储系统。原创 2011-09-09 20:13:17 · 1292 阅读 · 1 评论 -
网络IO模型
最基本的网络IO1 文件描述符-socket(int domain, int type, int protocol);-bind(int sockfd, struct sockaddr *my_addr, int addrlen); 2 服务端-listen(原创 2011-09-09 20:18:26 · 5032 阅读 · 0 评论 -
网站加速--服务器编写篇
优化你的网卡, 这一节有些关于大流量网卡的优化方法,值得学习借鉴。原文请移步http://blog.sina.com.cn/s/blog_466c66400100bi2n.html--------------------以下为正文---------------------原创 2011-09-09 20:20:32 · 1362 阅读 · 0 评论