apache2
文章平均质量分 77
apache6
这个作者很懒,什么都没留下…
展开
-
WordPress资源
1、WordPress模版ThemeViewer - 寻找WordPress模版的首选网站Templates Now - 相对上一个小一些TemplateMonster - 更专业一些的模版,不过有一些需要购买。Wordpress Themes - 模版众多、分类齐全。2、最好的WordPress插件Akismet - 最好的反垃圾评论插件,WordPres转载 2008-07-04 14:12:00 · 797 阅读 · 0 评论 -
VMWare和Virtual PC虚拟机的比较
1>内存篇VMWare占用你为虚拟机分配好的内存共享并不释放,可以调整。VPC根据你实际使用情况来动态增加。评论:看起来好像是VPC的方式更加好,但是实际运行速度绝对是VMWare快很多。2>硬盘篇 VMWare其硬盘容量不可调(指定大小后就不可以更改,但可以类似PC去加第二块硬盘。)能把物理硬盘并到虚拟机中使用。VPC可以动态扩展硬盘,会送你一块40G的虚拟出来的硬盘,该原创 2008-10-07 14:31:00 · 5314 阅读 · 0 评论 -
也谈mysql的limit优化
测试环境操作系统: debian linux 服务器版本: Mysql 5.0.24Mysql数据库的Qcache缓存关闭数据库表testtable的参数:类型: MyISAM大小: >80MB记录规模: >50000字段数: >25个字段id是主键leibie字段上建有索引进行数据分段测试1>SQL不带where条件的测试1原创 2008-07-07 09:55:00 · 1030 阅读 · 0 评论 -
Apache中KeepAlive的合理使用
网址: http://www.haojiuye.com吉林千合IT就业培训:郑重承诺:入学即入职,不就业即退费!吉林省千合IT教育是以IT高端培训为主的办学机构,成立5年来结合自身行业优势,成功为北京、上海、大连知名企业输送上千名优秀JAVA软件开发人才、网站开发精英。现开设JAVA定向就业培训、网站开发定向就业培训、大学生实训业务(JAVA/.NET方面)入学即入职不就业即退费原创 2008-07-02 11:27:00 · 626 阅读 · 0 评论 -
Apache Rewrite 的重写规则
重写规则的作用范围1) 可以使用在Apache主配置文件httpd.conf中2) 可以使用在httpd.conf里定义的虚拟主机配置中3) 可以使用在基本目录的跨越配置文件.htaccess中重写规则的应用条件 只有当用户的WEB请求最终被导向到某台WEB服务器的Apache后台,则这台WEB服务器接受进来的请求,根据配置文件该请求是主配置还是虚拟主机,再根据用户在浏览器中请原创 2008-07-02 11:12:00 · 628 阅读 · 0 评论 -
网站301转向代码大全
1、IIS下301设置Internet信息服务管理器 -> 虚拟目录 -> 重定向到URL,输入需要转向的目标URL,并选择"资源的永久重定向"。2、ASP下的301转向代码<%Response.Status="301 Moved Permanently"Response.AddHeader "Location", "http://www.mydomain.cn"%>原创 2008-06-20 16:58:00 · 948 阅读 · 0 评论 -
robots.txt语法
robots.txt是一个纯文本文件,在robots.txt文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定SE只收录指定的内容。当一个搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。补充说明一下,robots.txt必须放置在转载 2008-06-18 11:20:00 · 928 阅读 · 0 评论 -
自定义404错误页面
自定义404页面返回不当状态码如"200"等给网站最终SEO效果带来的不利影响,因此,确保自定义的404错误页面能够返回"404"状态码是极为重要的,也是网站优化与SEO的基本要求。这一点如何保证呢?如何才能为网站设置能够正常工作的404错误页面?定制404错误页面的基本原则首先应明确的是404错误应工作在服务器级而不是网页级。对定制使用动态页面如PHP脚本类型的404页时,必须确保在转载 2008-06-16 09:29:00 · 1959 阅读 · 0 评论 -
ASP.NET、ASP、PHP、JSP之间的区别
ASP:首先说Asp,它是属于脚本语言,一般连接的数据库为 Access 和 MsSql(SqlServer).当我们开发一个一般的小型数据库网站的时候,一般在3万条记录以下的,一般用Access数据库。Access数据库的优势就是一般的服务器都支持。SqlServer数据库的优势就是速度快,比如当记录集在10万以上,可以推荐用Sql的数据库。这两种数据库在Asp中都是用Sql语法原创 2008-06-16 09:36:00 · 963 阅读 · 0 评论 -
加快网站访问速度的要点
加速站点的要素: Make Fewer HTTP Requests Reduce DNS Lookups Avoid Redirects Make Ajax Cacheable Post-load Components Preload Components Reduce the Number of DOM El原创 2008-06-08 22:03:00 · 607 阅读 · 0 评论 -
HTTP客户请求的数据格式说明
HTTP请求包括三部分:请求行(Request Line),头部(Headers)和数据体(Body)。其中,请求行由请求方法(method),请求网址Request-URI和协议 (Protocol)构成,而请求头包括多个属性,数据体则可以被认为是附加在请求之后的文本或二进制文件。 下面这个例子显示了一个HTTP请求的Header内容,这些数据是真正以网络HTTP原创 2008-06-06 21:50:00 · 994 阅读 · 0 评论 -
用PHP输出静态页面的两种方法
第一种:利用模板。 目前PHP的模板可以说是很多了,有功能强大的smarty,还有简单易用的smarttemplate等。它们每一种模板,都有一个获取输出内容的函数。我们生成静态页面的方法,就是利用了这个函数。用这个方法的优点是,代码比较清晰,可读性好。这里我用smarty做例子,说明如何生成静态页require(smarty/Smarty.class.php);$t = new Sm转载 2008-06-06 09:29:00 · 558 阅读 · 0 评论 -
PHP字符串处理函数
1、AddcSlashes 字符串加入反斜线语法:string addcslashes(string str,string charlist);2、AddSlashes 字符串加入反斜线语法:string addslashes(string str);在特定的字符前加反斜线:、"、/、NULL3、bin2hex 将二进位转成十六进位语法:string bin2hex(string str原创 2008-05-25 10:32:00 · 734 阅读 · 0 评论 -
优化apache2服务器
Apache配置命令Apache在资源方面的配置命令主要有以下几条。 KeepAlive 是否允许持续连接 MaxKeepAliveRequests 允许的持续连接的最大数原创 2008-05-23 11:55:00 · 951 阅读 · 0 评论 -
解决AWStats搜索关键词中文乱码问题
Awstats是一套非常好用的免费的日志分析软件,他是用perl实现的,支持web log、ftp log和mail log;而且它还能自动根据你浏览器的字符设置来选取语言(支持中文). 但是缺省安装的话有个问题,就是用来搜索的关键字如果是中文的话显示出来是乱码的. 之所以搜索的关键字句会变成乱码的原因,主要是因为现在的搜索引擎都是使用UTF8,而Awstats是使用decodeUTFke原创 2008-05-22 10:32:00 · 3787 阅读 · 0 评论 -
隐藏Apache的版本号及其它敏感信息
为了防止某些别有用心的家伙窥视我们的服务器,应该做些什么.我们来看一下相关的2个参数,分别为ServerTokens和ServerSignature,通过控制这2个阀门应该就能起到一些作用,比如我们可以在配置文件中这么写: ServerTokens Prod ServerSignature Off ServerTokens用于控制服务器是否相应来自客户端的请求,向客户端输出服务器系统类型或内置原创 2008-05-16 08:39:00 · 4412 阅读 · 0 评论 -
正确配置Robots.txt
新站上线,最希望能够尽快被搜索引擎收录。 当然,我们并不希望搜索引擎收录网站中的任何页面。其中某些页面由于隐私、管理等等,并不希望被收录。 正确的配置网站的robots.txt非常重要,错误的配置会导致搜索引擎不能很好的收录甚至无法收录。 各个搜索引擎都有自己的搜索机器人(Robots)在为他们工作,这些Robots在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建原创 2008-07-09 10:49:00 · 3995 阅读 · 0 评论 -
让Apache拒绝网络流氓蜘蛛
一旦网站对外开放,并登陆到搜索引擎中,网络蜘蛛会定期来光顾采集。 当一个网络蜘蛛(有的叫搜索机器人)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。 目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则。但这是只防君子不防小人,碰到网路坏爬虫原创 2008-11-25 13:13:00 · 2533 阅读 · 0 评论