目录
- tdk优化
- 页面内容优化
- url优化
- robot优化
tdk优化
定义:所谓“TDK”(T:title,页面的标题; D:description,页面的描述文字; K:keywords,页面关键字。)
页面内容优化
1、img标签加上alt属性
2、一个页面最好只有一个h1标签
url优化
1、301跳转
301跳转:当用户或搜索引擎向服务器发出浏览请求时,服务器返回的状态码中的一种。表示本网站永久性的转移到另一个地址。同时302 是暂时重定向
2、描述 有很多朋友在输入网站有这样一个习惯。输入百度地址的时候会直接输入"baidu.com"会直接跳到"https://www.baidu.com/" 这就是重定向技术。 网站加上www和不加www对搜索引擎来说是两个站点,这样用户访问的时候会导致流量分散,导致页面的权重降低。
robot优化
meta robot(Robots Meta Directives)
<meta name="robots" contect="all|none|index|noindex|follow|nofollow">
其中的属性说明如下:
设定为all:文件将被检索,且页面上的链接可以被查询;
设定为none:文件将不被检索,且页面上的链接不可以被查询;
设定为index:文件将被检索;
设定为follow:页面上的链接可以被查询;
设定为noindex:文件将不被检索,但页面上的链接可以被查询;
设定为nofollow:文件将不被检索,页面上的链接可以被查询。
复制代码
robot.txt
1、基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎可以收录的内容,这是一个针对搜索文件设置的内容。
当爬虫爬取一个站点的内容的时候,它会首先检查该站点目录下面是否存在robots.txt文件,如果存在,爬虫就会根据文件来内容来爬取,如果不存在,爬虫就会沿着链接抓取。
robots.txt 必须在根目录下,并且需要全部小写。
2、robots.txt 语法
User-agent: *
Allow: /
#下列目录除外
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/
//以上文本表达的意思是允许所有的搜索机器人访问phpernote.com站点下的除了 wp-admin/,wp-includes/,wp-contents 这几个目录外其他的所有文件。
//具体语法分析:其中#后面文字为注释说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
复制代码