欢迎光临安阳中飞网络传媒官方网站 设为首页 | 加入收藏 | 联系我们
公司名称
 
 
业务快速通道
网站建设
为您量身打造企业网站
域名注册
中英文域名,通用网址
虚拟主机
中国万网,东方网域
企业邮箱
自由定制,随需购买
网站推广
百度竞价,谷歌推广
联系我们

安阳市中飞网络传媒有限公司

地址:河南省安阳市北关区彰德路与健康路交叉口U乐广场2220室
邮编:455000
咨询热线:0372-3983299
邮箱:ayzfwlgs@163.com

当前位置:网站首页  >> 新闻资讯  >> 网站策划
利用robots文件做seo优化 让蜘蛛更好的抓取网站
  2015-8-13 来源:安阳中飞网络 作者:安阳中飞网络

robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓取。正确使用robots文件有助于做好seo优化,robots文件的核心词汇就是allow和disallow用法。百度官网是认可这个文件的,在百度站长平台上也有robots这个栏目,点击进入,就可以看到你网站robots文件是否编写正确了。

百度robots文件使用说:

1、robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。

2、您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。

3、Robots工具暂不支持https站点。

4、Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。

利用robots文件做seo优化,让蜘蛛更好的抓取网站

上图我给的一个例子中,disallow语句有问题,原因是把英文的冒号写成了中文的冒号。

当然直接输入网站根目录加上robtots.txt文件也可以

利用robots文件做seo优化,让蜘蛛更好的抓取网站

User-agent:*   是用来置顶那些搜索引擎蜘蛛可以抓取的,一般默认设置

Disallow:/category/*/page/ 分类目录下面翻页后的链接,比如,进入校赚网分类目录 "推广运营经验"目录后,在翻页一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

Disallow:/?s=* Disallow:/*/?s=*  搜索结果页面和分类目录搜索结果页面,这里没必要再次抓取。

Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/   这三个目录是系统目录,一般都是屏蔽蜘蛛抓取

Disallow:/*/trackback  trackback的链接

Disallow:/feed Disallow:/*/feed Disallow:/comments/feed  订阅链接

Disallow:/?p=*   文章短链接,会自动301跳转到长连接


 
上一篇:如何通过设计提升网站的气质和品质? 下一篇: 我们网站真的需要这些功能吗?
     
首页 | 关于中飞 | 新闻资讯 | 客户案例 | 在线留言 | 联系我们 | 支付方式

Copyright © 0372it.com 安阳市中飞网络传媒有限公司 豫ICP备12006994号
地址:河南省安阳市北关区彰德路与健康路交叉口U乐广场2220室   邮编:455000 咨询热线:0372-3983299