二哈

Typecho的robots文件
前言robots.txt优化,这个typecho默认没有 ::aru:despise:: ,就得自己写。其实这个对...
扫描右侧二维码阅读全文
14
2018/09

Typecho的robots文件

前言

robots.txt优化,这个typecho默认没有 ,就得自己写。其实这个对SEO是有点用的 避免蜘蛛爬取收录不必要的页面,下面是我用的robots.txt, 需要的自己复制就行了。

# robots.txt for https://www.9imc.cn/
User-agent: *
Disallow: 
Disallow: /config.inc.php
Disallow: /admin/
Disallow: /var/
Disallow: /install/
Disallow: /install.php
Sitemap: https://www.9imc.cn/sitemap.xml

代码中的的Sitemap链接替换成自己的,没有的话就把Sitemap删掉

总结

robots.txt文件唯一的弊端就是可以看到一些网站重要文件或目录(比如后台地址),如果程序有BUG 懂我意思吧? ,但个人及觉得问题不大,毕竟对SEO有一定好处。

二哈博客
何以解忧,唯有暴富。
Last modification:September 14th, 2018 at 12:17 am
If you think my article is useful to you, please feel free to appreciate


Leave a Comment