关闭

突然想到的seo问题

125人阅读 评论(0) 收藏 举报
分类:

一般来说,使用js进行构建的页面seo比较困难,考虑了一下可能是这个原理。许多页面在渲染后产生的静态页面经过后端处理,等着b端发get请求。然而许多单页应用,它的页面改变的只是hash值,对于网络爬虫来说等于没有发送get请求,所以爬虫无法爬到这些东西,seo就很困难。再加上很多触发动作,爬虫都是无法完成的,所以爬虫最喜欢的就是那种静态页面,适用于很久很久之前的技术~~

爬虫不是浏览器,他不会将get到的js资源进行执行与解析,更无法渲染,so,你无法获取html页面,无法seo

以上是我的理解,可能不对

0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:39499次
    • 积分:878
    • 等级:
    • 排名:千里之外
    • 原创:49篇
    • 转载:8篇
    • 译文:0篇
    • 评论:6条
    文章分类
    最新评论