快捷搜索:

robots文件正确写法!新手留意!

robots.txt文件只不过一个纯文本文件,它就像web地图一样,给搜寻引擎指明线路,当蜘蛛搜索一个站点时,它起首蒲伏来检查该站点的根目录下可否具备robots.txt文件,假设具有的话,搜索引擎会按照该文件的内容来确定走访领域,要是该文件不具备的话,那末搜寻引擎就会沿着链接来抓取。

robots文件正确写法!新手留意!
1、robots.txt协议文件有什么用?
搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。
2、设置robots.txt的原因?
设置访问权限保护网站安全。
禁止搜索引擎爬取无效页面,集中权值到主要页面。
3、robots.txt写法和robots.txt语法的作用
User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。
Disallow表示禁止访问。
Allow表示运行访问。
通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。
如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。
robots.txt写法如下:
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
如果我们禁止所有搜索引擎访问网站的所有部分的话
robots.txt写法如下:
User-agent: *
Disallow: /
如果我们需要某一个搜索引擎的抓取的话,比如百度,禁止百度索引我们的网站的话
robots.txt写法如下:
User-agent: Baiduspider
Disallow: /
如果我们需要禁止蜘蛛访问某个目录,比如禁止admin、css、images等目录被索引的话
robots.txt写法如下:
User-agent: *
Disallow: /css/
Disallow: /admin/
Disallow: /images/
4、robots.txt文件放在那里?
此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。
5、哪些时候需要使用该协议。
无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。
动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。
网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。


您可能还会对下面的内容感兴趣: