由于最近在文章内页查看源代码时会有乱码,经过几次排查我确定了是wp-super-cache的问题,在上一篇文章
博客停用了WP-SUPER-CACHE插件 中提到过我碰到的问题。但今天仔细研究了下,发现问题不在这个插件上。
之前(忘了多久了)做过对文章内页的Description优化,其中header.php部分有一段代码是这样的。
代码的意思是文章内页的Meta Description属性取值为文章内容的前220个字符。
而用substr取值涉及到编码问题,对于一些中文页面会产生乱码,所以就会让百度蜘蛛识别错误,导致收录信息不正常。
解决方法是:将代码替换为mb_strimwidth函数,如下:
这样,就完美解决了编码问题,中英文页面都不会出现源代码乱码问题了。
现在,等待着百度收录信息的恢复。
突然发现:同样是Google蜘蛛与百度蜘蛛,Google蜘蛛爬行我页面的时候就不会因为这点乱码问题而出现收录不正常,总结性地说一句:如果说其他搜索引擎的蜘蛛是普通蜘蛛的话,那么Google蜘蛛就是文艺蜘蛛,百度蜘蛛就是二逼蜘蛛。