Typecho的robots文件

2018-09-14T00:17:20

前言

robots.txt优化,这个typecho默认没有 ::aru:despise:: ,就得自己写。其实这个对SEO是有点用的 避免蜘蛛爬取收录不必要的页面,下面是我用的robots.txt, 需要的自己复制就行了。

# robots.txt for https://www.9imc.cn/
User-agent: *
Disallow: 
Disallow: /config.inc.php
Disallow: /admin/
Disallow: /var/
Disallow: /install/
Disallow: /install.php
Sitemap: https://www.9imc.cn/sitemap.xml

代码中的的Sitemap链接替换成自己的,没有的话就把Sitemap删掉

总结

robots.txt文件唯一的弊端就是可以看到一些网站重要文件或目录(比如后台地址),如果程序有BUG ::aru:knife:: 懂我意思吧? ::aru:bigeye:: ,但个人及觉得问题不大,毕竟对SEO有一定好处。

当前页面是本站的「Baidu MIP」版。发表评论请点击:完整版 »