分享

zblog的robots.txt怎么写?zblog的robots.txt文件示例下载

 阿鹏博客笔记本 2019-12-08

robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。

首先来解释下robots.txt是什么robots.txt有什么作用

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。yalizhuan.com

以上内容来自百度百科。

看了上面的内容就能了解robots.txt是告诉搜索们该收录哪些页面, 所以我们就要知道zblog程序里面哪有文件夹是给蜘蛛爬的哪些文件夹不能给蜘蛛爬。请参考“https://www./post/1085.html”。

给大家一个示范的robots.txt也就是本站的robots.txt文件:

Markup
User-agent: *
Disallow: /zb_users/
Disallow: /zb_system/
Sitemap:http://www./sitemap.xml

上面的robots.txt意思是让蜘蛛不要爬zb_users和zb_system这两个文件夹,另外本站的“Sitemap”文件是“seo工具大全”插件生成的,你们可以下载其他插件(https://app./search.php?q=Sitemap)生成Sitemap文件。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多