售前咨询 售后咨询
当前位置: 上海网站设计 > 建站知识 > 行业新闻

robots.txt文件制作方法

网站编辑:小润 | 发表时间:2019-01-18 14:34:47

一个网站,可以有robots.txt,也可以没有。但是如果要有,那就必须做的规范,下面就个人经验来说下robots.txt的制作方法。
 
  robots.txt文件命令包括:
 
  Disallow - 告诉蜘蛛不要抓取某些文件或目录。如下面代码将阻止蜘蛛抓取所有的网站文件:
 
  User-agent: *
  Disallow: /
  Allow - 告诉蜘蛛应该抓取某些文件。Allow和Disallow配合使用,可以告诉蜘蛛某个目录下,大部分都不抓取,只抓取一部分。如下面代码将使蜘蛛不抓取ab目录下其他文件,而只抓取其中cd下的文件:
 
  User-agent: *
  Disallow: /ab/
  Allow: /ab/cd
  $通配符 - 匹配URL结尾的字符。如下面代码将允许蜘蛛访问以.htm为后缀的URL:
 
  User-agent: *
  Allow: .htm$
  *通配符 - 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件:
 
  User-agent: *
  Disallow: /*.htm
  Sitemaps位置 - 告诉蜘蛛你的网站地图在哪里,格式为:
 
  Sitemap: 
    提醒大家:制作网站的人很多时候还没做好搜索引擎就收录了,然后他们又一直修改,这样对网站的权重是相当不利的。因此他们的屏蔽是为了在制作未完成时不被搜索引擎抓取。但做好后,有些时候会忘了,或者由于其它原因又没开取。
 
  因此当我们接手的时候,记得要开起,以免推广了很长的时间,搜索引擎确没有任何的反映。
 
    上海网站设计公司--柏思网络,已成为上海网站建设公司最早成立的知名品牌之一。多年来我们所服务的客户遍及全国各地,为国内外知名企业提供完善的网站建设服务。

关键字:
官方微信
上海市长宁区宣化路300号华宁国际广场中区7层
+021-8031 0607
+135 8590 1130