咨询热线:
15165192156
济南SEO客服
济南SEO在线客服:
客服一
济南SEO微信客服
济南SEO官方微信:
济南SEO官方微信
济南网站优化公司官网: www.seoto.cn

robots.txt用途介绍,以及详细书写规范

来源: 未知发布时间:2018-03-12 09:52作者: admin

  什么是robots.txt文件?

  搜索引擎自动访问互联网上的网页,并通过程序机器人(又名蜘蛛)获取网页信息。

  您可以在您的网站上创建一个纯文本文件robots.txt,在该文件中声明您不希望机器人访问的站点部分,以便部分或全部网站内容可能不包含在搜索引擎中,或者 指定搜索引擎只包含指定的内容。

  许多网站优化' target='_blank'>/wzjs/' target='_blank'>网站建设系统在网站建立之后都有一个网站的根目录。默认情况下,有一个robots.txt协议文件。在当今日益激烈的网站优化竞争中,没有任何优化因素的原始robots.txt文件也被最大程度地使用。


                                      robots.txt文件

  一:robots.txt协议文件的用途是什么?

  当搜索引擎访问网站时,访问的第一个文件是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些是被禁止的。从表面上看,这个功能的用途有限。从搜索引擎优化的角度来看,我们可以使用屏蔽页面来实现集中权重的作用,这也是优化者最看重的地方。

  二:网站设置robots.txt的原因有几个。

  编写更详细的robots.txt协议文件

  1:设置访问权限以保护网站安全。

  2:禁止搜索引擎抓取无效页面并关注主页面。

  三:如何使用标准书写robots.txt文件?

  有几个概念要掌握。

  用户代理指示定义了哪个搜索引擎,如User-agent:Baiduspider,定义了百度蜘蛛。

  Disallow禁止表示禁止访问。

  Allow允许表示运行访问。

  通过上述三个命令,可以组合多种书写方法,以允许哪个搜索引擎访问或禁止哪个页面。

  四:robots.txt文件在哪里?

  这个文件需要放在网站的根目录下,而且这个文件的大小是有限制的。文件名必须是小写字母。所有命令的第一个字母必须大写,其余的字母应该是小写。命令后必须有英文字符的空间。

  五:你什么时候需要使用这个协议?

  1:没用的页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化,效果不是很大,这时候需要使用Disallow命令来禁止这些页面被搜索引擎抓取。

  2:动态页面,企业类型站点阻塞动态页面,有利于网站的安全。多个网址访问同一页面,这会导致分散的权重。因此,通常,动态页面被屏蔽,留下静态或伪静态页面。

  3:网站后台页面,网站后台也可以归类为无用页面,禁止无损记录。

本文网址:https://www.seoto.cn/seozs/wt/315.html

相关文章