seo
文章平均质量分 62
SEO相关
Lvan的前端笔记
十年磨一剑
展开
-
SEO:所有网站都可用的一些搜索引擎优化方案
文章目录优化html标签setmap网站地图刷外链(一些站长工具)百度的关键词推广 优化html标签 例如:将一些关键字放到title,h1这种标签里 setmap网站地图 加入setmap网站地图,具体看 这里 刷外链(一些站长工具) 百度的关键词推广 ...原创 2021-07-28 10:27:02 · 479 阅读 · 0 评论 -
SEO:服务端动态渲染
原理 服务端对请求的 user-agent 进行判断,浏览器端直接给 SPA 页面,如果是爬虫,给经过动态渲染的 html 页面 方案 这里又分为两个方案: 方案1:node 对请求的 user-agent 进行判断 方案2:nginx 对请求的 user-agent 进行判断 用 nginx 做判断,node服务只是为爬虫来服务,就算 node 挂了,也不会影响用户的正常使用,所以这里采用方案2 实践 技术栈 服务端:node、egg 缓存:redis 请求转发:nginx 具体实践 1、nginx配置原创 2021-01-30 23:58:36 · 872 阅读 · 0 评论 -
SEO:爬虫爬取的模型和策略
文章目录简易模型广度、深度优先遍历非完全PageRank算法OPIC策略大站优先策略 简易模型 首先,从互联网不断的抓取很多url到我们的待爬取队列中,然后经过某些规则通过下载器来下载这些url,最后将爬取的页面放在网页库里等待建立索引,并且在已抓取的url队列里存放一份,以防止重复的抓取。 那么问题来了,这么多的url,我应该按什么样的规则去抓取呢?那么就有了接下来的这几种策略: 这几种策略的核心就是:优先抓取重要的网页。 广度、深度优先遍历 广度优先遍历: 将下载网页所包含的链接直接追加到待抓取U原创 2021-07-28 10:18:36 · 724 阅读 · 0 评论 -
SEO:爬虫禁抓协议robots.txt和sitemap网站地图
文章目录爬虫禁抓协议robots.txtsitemap网站地图如何创建sitemap网站地图 爬虫禁抓协议robots.txt Robots协议是国际互联网界通行的道德规范。 由网站所有者指定的一个文件:robot.txt,这个文件指明了哪些目录下的网页是不允许爬虫抓取的。 sitemap网站地图 sitemap是什么? sitemap是网站目录检索 Google、雅虎、和微软都支持xml网站地图(xml Sitemaps)的协议。 百度的Sitemap是指百度支持的收录标准,在原有协议上做出了扩展。原创 2021-07-28 10:24:00 · 1045 阅读 · 0 评论 -
SEO:基于SPA的搜索引擎优化方案调研
背景 由于SPA项目不利于SEO优化,于是有了以下几个方案 方案选择 方案一:服务端渲染(SSR) 直接java或php渲染(那样就又是前后端不分离了,不考虑) 服务端起一个node应用 优点: SEO 友好 首屏渲染快(可在服务端缓存页面,请求到来直接给 html) 缺点: 代码改动大、需要做特定SSR框架的改动(例如vue的nuxt,react的next) 丢失了部分SPA体验 node 容易成为性能瓶颈 方案二:构建时预渲染方案 在项目开发完成之后,将有限的需要SEO的页面挑选出来,借助p原创 2021-01-14 18:25:19 · 609 阅读 · 0 评论 -
SEO:使用prerender-spa-plugin预渲染解决seo问题
文章目录原理适合哪种网站实践技术栈具体实践本地部署线上部署遇到的问题 原理 项目在本地打包的时候,挑选几个需要seo的页面路由,通过无头浏览器去爬取这些路由对应的渲染好的页面,然后将生成的.html文件打包到dist文件中,然后部署到服务器上去。 当你第一次访问的时候,会直接返回你完整的dom,然后被 vue 接管,接下来你调接口渲染页面得到最新的页面。 适合哪种网站 适合页面少的,如果是那种资讯型的,比如新闻列表详情这种的,你没有办法把一个个的页面路由都拿出来,所以不适合这种方式 实践 技术栈 前端框架:原创 2021-01-14 18:16:53 · 737 阅读 · 0 评论