专业的长沙网站优化公司

长沙网站优化培训-如何使用Robots来处理网站死链接?

浏览:/ 2019-01-08

 觉得今天很有必要跟大家分享一下Robots与死链的关系,这几天已经遇到了好几个SEOer在混淆这两个概念了,老是把Robot的应用与死链的处理,搭配到一起去使用,Seven足足码字好几百,聊天记录都说了两页了,回头还是问了句,“怎么在robot中写死链提交”,我在想一定是我表达的方式不对,下面给大家捋捋思路:

4cb6be544f92bc9c.jpg

 
现在谈谈死链与Robot的关系,很多人就把死链提交到Robots定义里面,认为用Disallow来禁止百度蜘蛛的抓取,这个想法是好的,出发点无非是不想让百度收录自己网站的死链,但是有没有考虑到快照问题,就是这个链接是个死链,但是在网站收录里面还有快照存在,你就会想,是不是百度还能抓取到我的死链,所以你就在Robot里面加了N多行的Disallow,来禁止百度收录你的死链,seven一直不太认可这么一个做法,其实这完全是一个本末倒置的做法。
 
 
需要搞清楚死链是如何产生的?死链是由于文件删除或者路径修改产生的不可访问的链接,那么你需要做的第一步是完全清除死链,第二步是提交死链,而Robots的禁止收录,是因为路径存在,但是你不希望被搜索引擎收录,比如网站后台或者用户中心一类,所以才加的Disallow去禁止收录,死链是访问不到的链接,如果你第一步清除完了,存在这个Disallow的必要吗?因为你不完全清除死链,势必影响用户体验。

阅读"长沙网站优化培训-如何使用Robots来处理网站死链接?"的人还阅读

上一篇:网站优化怎么做?具体的网站优化流程有哪些重要步骤?

下一篇:返回列表