冬镜SEO > SEO入门教程 > 网站优化中robots文件一定要放在根目录吗?

网站优化中robots文件一定要放在根目录吗?

SEO入门教程 · 重庆SEO ℃

发布时间: 作者:冬镜SEO

文章标签:网站优化robotsrobots文件robots协议robots写法robots优化robots高级玩法

近段时间冬镜分享网站优化相关的教程越来越少了,主要还是忙其他项目,导致每天没有过多的时间。今天抽时间给大家聊聊网优化中关于robots文件的一些常见的疑问。

一、什么是robots,robots有什么用?

在讲解robots之前先给大家介绍一下什么是robots。借用百度百科的解释robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面

用一句话来解释:robots就是蜘蛛与网站的一种协议。

至于robots有什么用,相信认真看上文的小伙伴还是有一定的收获。冬镜认为合理的robots还是有以下几方面的好处:

1、可以避免蜘蛛爬取收录我们不想展现给别人看的页面。例如网站后台地址,个人隐私日志等。

2、可以减轻服务器压力。我们通过robots协议可以让蜘蛛只抓取一部分页面,避免蜘蛛胡乱抓取一些没用的页面,占用服务器资源

3、正确的robots协议会提升整站质量,促使快速收录排名,从而提高网站权重

二、robots协议格式应该怎么写?

先给大家看一个最简单的robots文件的写法:

User-agent: *

Disallow: /inc/

Allow: /uqseo

Sitemap: http://www.mipqq.com/sitemapxq7jely9mgz.xml

上文中User-agent代表的是搜索引擎蜘蛛的名字,一般常用的是*,代表通配,换句话说就是该协议对所有搜索引擎蜘蛛都有用;Disallow指不允许访问的对象,比如某一个css、js、图片、视频、文件夹等,Disallow: /inc/代表的就是不允许搜索引擎蜘蛛爬行抓取inc文件夹下的所有文件;Allow指允许搜索引擎蜘蛛访问的路径,Allow: /uqseo代表的是带有uqseo的文件或文件夹 ;Sitemap指本站的地图,一般为.xml或.txt格式的地址,值得注意的是这里一定要写绝对地址。

小提示:每个属性的冒是用英文冒号,冒号后面一定要空一格。

三、robots只能放在根目录吗?

冬镜可以明确地告诉robots文件只能放在网站根目录,关于这一点也是很好理解的,前文提过robots文件就是针对搜索引擎蜘蛛的一种协议(有些蜘蛛不一定会遵守),搜索引擎蜘蛛进入网站都是先从网站根目录,所以robots协议也只有在根目录的时候才有效,而且需要注意的是robots文件的命名必须是robots.txt,只能用小写字母。

四、robots协议的高级玩法

此玩法需要php+伪静态或者php+路由来实现。前面讲到robots里面除了禁止和运行之外,还有一个十分重要的就是sitemap地图,有时候我们网站的sitemap地图很多时,如果全部写到robots里面就会显得十分臃肿,此时我们采用php控制输出就能实现每次访问robots显示不同的地址,具体的就不为大家过多的演示了。
  • 冬镜SEO

    分享SEO优化技术及网站优化教程,一个权威的SEO博客.

    点击投稿

  • 本文简介

    文章分类: SEO入门教程

    文章标题:网站优化中robots文件一定要放在根目录吗?

    文章链接:http://mip.uqseo.com/seorm/526.html

    原文地址:网站优化中robots文件一定要放在根目录吗?

         导航