分享

Robots.txt怎么写?

 顾于思文摘馆 2010-04-28

Robots.txt由两部分组成。首先是User-agent,指出Robots.txt语句所涉及到的搜索引擎。其次是Disallow/Allow,指出对于User- agent中所涉及的搜索引擎,需要禁止或允许收录的URL,可以是绝对路径,也可以是相对路径。

下面举几个例子来进行说明:

1、禁止百度访问网站的任何部分。

  • User-agent: Baiduspider
  • Disallow: /

参考范例:http://www.taobao.com/robots.txt

2、禁止spider访问特定目录。

  • User-agent: *
  • Disallow: /cgi-bin/
  • Disallow: /tmp/

3、禁止访问网站中所有的动态页面。

  • User-agent: *
  • Disallow: /*?*

除此之外,通过Meta Robots对单独每个网页进行设置,也可以达到禁止搜索引擎的效果,详细操作请阅读教程Meta Robots怎么写。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多