+316原创程序 +49收集论文 +84原创文章 +1669VIP客户 +3262921总访问量
您的位置:首页 > 设计师随笔 > 如何删除搜索引擎收录的死链
如何删除搜索引擎收录的死链
作者/来源:原创    时间:2014-06-19    关注2743次

本站的域名http:www.9laile.com  以前是做主机网站的,百度收录了很多页面,现在我们搬过来做这个原创php毕业课程设计作业下载网,那么以前收录的页面就打不开了,成了死链。

死链是做网站的大忌,不仅客户的体验度不好,搜索引擎也很方案。于是乎,我们设置了404页面,将这些死链全部交个404页面,希望百度能理解我们的良苦用心。可是,百度并没有从他的搜索结果里删除这些死链,用site:www.9laile.com 可以看出,这些曾经做主机的网站留下的页面依然存在。


【来源:原创成品php mysql毕业设计、课程设计、作业下载网 http://www.9laile.com  原创文章 转载请注明出去】
    

通过百度相关知识,终于得知一个比较好的办法,那就是 robots  我们可以在robots文件中禁止蜘蛛爬行这些死链,于是乎,我们在robots.txt中写了以下代码:

User-agent:*
Disallow:/Template/
Disallow:/*.asp$

第一行   说明该robots文件适合所有搜索引擎

第二行   禁止蜘蛛爬行 /Template/ 目录,这个目录也是以前网站的,现在的网站不存在该目录

第三行   禁止蜘蛛爬行asp文件,以前的网站是asp脚本,我们现在的毕业设计网站是php脚本,因为可以将asp的文件全部禁用掉


根据以上设置,理论是,百度会很快将我们的死链删除,效果如何有待考证。

【来源:原创成品php mysql毕业设计、课程设计、作业下载网 http://www.9laile.com  原创文章 转载请注明出去】

2014年06月21日更新

根据以上设置,死链并没有被清除,用了百度站长平台,提交了死链文件,同时禁用了上面说的robots文件。

"如果链接成为死链之前已被百度搜索引擎收录,设置404后请不要再设置robots封禁,否则会影响搜索引擎对链接的判断和处理"

效果如何观察中~~



©专业辅导 php毕业设计,php课程设计,php期末作业,php大作业,品质保证 访问:3262921次  
9laile.com源码在线销售平台由本站设计师齐工独立研发
当前版本V1.1.18
皖ICP备05020966号

皖公网安备 34072202000111号

 68813382