搜索引擎与前端SEO

目录

  • tdk优化
  • 页面内容优化
  • url优化
  • robot优化

tdk优化

定义:所谓“TDK”(T:title,页面的标题; D:description,页面的描述文字; K:keywords,页面关键字。)

页面内容优化

1、img标签加上alt属性

2、一个页面最好只有一个h1标签

url优化

1、301跳转

301跳转:当用户或搜索引擎向服务器发出浏览请求时,服务器返回的状态码中的一种。表示本网站永久性的转移到另一个地址。同时302 是暂时重定向

2、描述 有很多朋友在输入网站有这样一个习惯。输入百度地址的时候会直接输入"baidu.com"会直接跳到"https://www.baidu.com/" 这就是重定向技术。 网站加上www和不加www对搜索引擎来说是两个站点,这样用户访问的时候会导致流量分散,导致页面的权重降低。

robot优化

meta robot(Robots Meta Directives)
<meta name="robots" contect="all|none|index|noindex|follow|nofollow">

其中的属性说明如下:
设定为all:文件将被检索,且页面上的链接可以被查询;
设定为none:文件将不被检索,且页面上的链接不可以被查询;
设定为index:文件将被检索;
设定为follow:页面上的链接可以被查询;
设定为noindex:文件将不被检索,但页面上的链接可以被查询;
设定为nofollow:文件将不被检索,页面上的链接可以被查询。
复制代码
robot.txt

1、基本介绍

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎可以收录的内容,这是一个针对搜索文件设置的内容。

当爬虫爬取一个站点的内容的时候,它会首先检查该站点目录下面是否存在robots.txt文件,如果存在,爬虫就会根据文件来内容来爬取,如果不存在,爬虫就会沿着链接抓取。

robots.txt 必须在根目录下,并且需要全部小写。

2、robots.txt 语法

User-agent: *
Allow: /
#下列目录除外
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/

//以上文本表达的意思是允许所有的搜索机器人访问phpernote.com站点下的除了 wp-admin/,wp-includes/,wp-contents 这几个目录外其他的所有文件。

//具体语法分析:其中#后面文字为注释说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
复制代码
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值