搜索引擎优化(Search Engine Optimization,简称SEO)是一种利用搜索引擎的搜索规则来提高目的网站在有关搜索引擎内的排名的方式。
搜索引擎工作原理
当我们在搜索引擎中输入了关键字点击搜索查询到结果,这背后发生了什么呢?
搜索引擎网站, 像百度,后台有着超级大的数据库,数据库里有着海量的关键字,关键字又对应了很多网址,这些都是由程序(爬虫)从茫茫的互联网上一点一点收集来的。程序不断分析查找关键字,如果它判定这是数据库里没有的,就把它收入数据库中。反之 如果是一些垃圾信息,则会舍弃不要,继续前行。由于一个关键字会对应多个网站,这里就会有排序问题,当然,与与关键信息越符合的当然会越靠前。
其次,爬虫爬取网页还存在一个是否能读懂的问题,如果网站是flash或者是js生成的,那爬虫就读取无能了。与关键字在贴切也不会收入。所以我们如何能让程序更好的懂得我们的网页,就是我们讲的优化了。
白帽SEO
(旨在保持良好的互联网秩序):
1.对网站标题、关键字、描述进行精心设计,反应网站定位。
2.网站内容的优化,网站内容与关键字的对应,增加网站关键字的密度,设置长尾关键字,还有在网站上合理设置robot.txt文件等。
——(长尾关键词(Long Tail Keyword)是指网站上非目标关键词但也可以带来搜索流量的关键词。例如,目标关键词是服装,其长尾关键词可以是男士服装、冬装、户外运动装等。长尾关键词基本属性是:可延伸性,针对性强,范围广)。
——*Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。*
3.生成搜索引擎友好的网站地图。
4.增加外部链接引用。把搜索引擎引到自己的网站上来。