百度站长平台公布的SEO技术秘密对话
作者:秋了秋 发表时间:2014年12月31日
对于seo很多人都想知道其中的秘密,其实压根就没有什么秘密,只有一些忌讳,看完以下的文章你一定会明白很多关于seo方面的知识。
百度站长平台专家王淘、草根个人站长代表搜外创始人夫唯、以及大型网站代表太平洋SEO负责人黄勇一起探讨了有关搜索引擎趋势,搜索引擎喜好以及工程师们在实操中遇到的技术问题。
黄勇:有一天我们有一个网站发现来了非常多的爬虫,给服务器造成了极大的压力。于是我们紧急屏蔽了所有爬虫IP和UA。可是等一段时间后,我们解除解禁后,却发现恢复起来非常缓慢,基本上两个月后才回到了当时的水平。大家的站越做越大,肯定会遇到庞大的访问压力、抓虫抓取方面的问题,所以想借此机会咨询一下,看在这方面有没有一个好的解决办法。
王淘:理论上讲,站点屏蔽了Baiduspider后的恢复周期的确比较长,但是有没有措施就请孙权讲一下了。
孙权:通过封禁UA或IP的方式来拒绝百度蜘蛛,一天以上后果都是非常严重的。就这个问题来说目前没有快速的方法可以让你在短时间内恢复。这是站点自身运行的一个故障,并不是百度策略上面有什么问题。还有就是,网站在无法访问期间,很多因子都会受到影响,百度在给网站进行综合打分时会综合计算多个因子,所以说,即使是网站访问恢复了,但其它因子的负面影响还在,网站恢复起来也还是非常困难的。
观众提问:用闭站保护能解决这个问题吗?
孙权:不能。闭站保护前提是把网站死掉,指的是爬虫不能抓取,同时用户也访问不了。。
王淘:其实我建议不管对什么样的IP或者UA都不要直接封禁,设置502会好一点。
黄勇:当时我们也有想过设置502,但考虑到这个问题不是短期内能够解决的,担心使用502被搜索引擎视为欺骗,毕竟是服务器的问题嘛,应该是403,干嘛告诉人家说是502。我们非常害怕因为使用取巧的做法而带来更严重的后果
王淘:这个还好,如果你网页明确不想让搜索引擎访问就403就好了,如果走屏蔽其实502也无所谓,仅仅是我们浪费流量重新抓几次,这是比较谨慎的情况。我们抓不到你们内容对我们来说也是损失。
孙权:可能很多站长会问,为什么我的站持续一段时间访问不了后排名会掉得那么厉害,就是因为百度认为网站可访问性有问题,目前百度对可访问性有问题的网站打压是非常厉害的。所以,面对网站爬虫访问量突增的情况,我不建议站长立刻去封我们的爬虫,你可以通过百度站长平台抓取频次工具,把这个爬虫压力调低,但是不可以封掉。比如本来一天来抓50万,你调低到2万,我们后台的Spider策略都是认这个值的。
黄勇:《301跳转常见问题汇总》文章中提到站点设置301后,“百度不会删除旧网页,新旧网页同时存在,百度在搜索结果中会优先展现新网页”,但实际情况是,会发生新旧页面交替获得排名的现象,这是什么原因?
王淘:这个问题主要是由我们的系统造成的。我们系统有非常多的模块,每个模块都要去单独处理301更替,偶尔有一些模块的处理逻辑可能有出现问题,可能出现一些波动。我们在6月份左右时做过一次大规模的改进,基本上把所有的模块都理了一遍,把所有归一化都做了统一,现在这样的问题比较少了。
黄勇:百度快照时间与页面质量、抓取更新频率是否有什么关系?
王淘:快照时间没有任何参考价值,在排序时我们使用单独的抓取时间统计系统,外部不可见,站点完全不用关注百度的快照时间。
黄勇:文章页的边栏、底部部署大量与当前文章间接相关的链接,是否会认被为噪声?是否影响页面本身内容识别和收录?
王淘:网页在建库时会判断页面的主体内容,而边框这部分的内容基本不算在内,所以基本不会有影响,只有一些链接发现的作用。
黄勇:Canonical 的使用范围,百度提到“高度相似”,这个“高度相似”到底是什么标准?例如这两个页面:
//netblog.cn/blog/125.html和//netblog.cn/blog/125.html
王淘:“高度相似”是指网站的标题、主体内容以及网站的结构都相似,从这个案例来看网站结构不同,对Baiduspider来说完全是两个不同页面,canonical标签不会生效。
黄勇:请问百度如何看待一个采集了优质内容,但浏览体验和访问性都好的网站?
王淘:对于百度来说,能够提供满足用户需求的内容、有良好用户体验的网站就是好网站。有些站点从从外站转载来内容,经过加工提供了内容增益,更好的满足了用户需求,同样可以得到好的展现。
以上内容来自站长之家,秋叶分析,以上内容也在一点一点证实了秋叶之前写的seo文章猜想分析,比如说《否定网页相似度对SEO收录的影响》,说明了蜘蛛是可以判定页面的主体文章内容的。以及之前所提到的,用户至上,只写对用户有帮助的内容才会受欢迎和原创与非原创的看法,百度快照,Canonical的用法,每一个都可以在我之前的文章中找到影子。这也说明秋叶对搜索引擎的观察方向是正确的。