SEO——实现要点总结

SEO是一个发现性的工作,需要总结各个不同的小要点,通过一段时间的学习,将一些要点总结如下。

一、站点地图

使用站点地图不仅可以方便快速链接到指定页面,同时对网络蜘蛛也是可以索引,因为某些很深的页面并不会被索引到。其中可以使用GOOGLE和Yahoo提供的站点地图,这个需要遵循相应的标准。另外可以使用程序生成一系列链接,从而创建站点地图。

传统的站点地图为访问者设计,基于搜索引擎的站点地图有助于站点被检索得更快和更完整。一般两种站点地图都要创建,利于可用性和增强索引速度。

二、链接诱饵

定义为某种有趣的东西足以吸引人们的注意力,将浏览者从其他站点吸引过来。这种链接也是搜索引擎评价的对特定站点的投票。一般分为以下4种:

  • 信息:发布的一些有用的信息
  • 新闻故事:对某个相关的新闻故事的率先报道
  • 幽默笑话:一个好的笑话通常会传播,Alexa经常突出这点
  • 歪门邪道

三、伪装、地域定向和IP分发

伪装是指为人类访问者和搜素引擎蜘蛛提供不同的访问内容,这是一项颇受争议的话题。
地域定向是指为不同地理位置的人们和蜘蛛提供不同的内容,这没有争议。
以上两者都是使用IP分发技术实现。首先将访问网站的不同蜘蛛的IP地址记录到数据库中,通过对访问者的信息判断,来表现不同的逻辑。数据库中记录的是不同范围的IP断,指示这不同IP段分别位于那个地方。通常在实现上会查看请求者的User-Agent头,但是这个是可以更改的,因此需要多种判断手段。
外语SEO,这是应对不同语言的访问者的考虑,应尽可能包含其他国家地区的地址,要处理好重读的字母等。

四、Web Feed

这是在Web上发布内容的一种机制,使用基于XML的格式,无需任何表现层的内容。许多桌面应用程序都可以将Web Feed获取解析,称为聚合器或Feed阅读器。可以通过Web Feed对某些内容的访问,可能包括链接,就可以积累来自Feed的用户的汇集浏览和链接。
Feed必须以标准化的格式提供,RSS和Atom是最为流行的格式。
两者都是基于XML标准,提供另一个通用的框架,可以在多个体系结构和操作系统平台进行通信,两者都可以看成是纯文本的文件,RSS发展到现在的2.0版本标准已经被冻结。

五、重复内容

1、使用robots  meta标签

这个方法没有任何限制,可以从网站中以页面为基础排除任何基于HTML的内容,使用如下:
<meta name="robots" content="noindex, nofollow" />
表明对于所有搜索引擎蜘蛛来说页面不能被索引,并且页面的链接不能被跟随。为了排除某种特定蜘蛛,需要将robots改为蜘蛛的名字,主流搜素引擎蜘蛛名称googlebot(Google)、baiduspider(Baidu)、msnbot(MSN Search)、Slurp(Yahoo)等。
限制有:需要对应用程序源代码有修改权限;只能用于HTML页面,不能用于纯文本、CSS或者二进制图片等文件。

2、robots.txt排除

位于网站根目录下的一个文本文件,必须是网站根目录,而且只能有一个robots.txt文件,同时需要符合robots.txt标准设置(http://www.robotstxt.org),robots.txt以简单的模式匹配来向搜索引擎排除URL地址。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值