《3.8制作站点地图 2.》.ppt

  1. 1、本文档共30页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
《3.8制作站点地图 2.》.ppt

百度站点地图的写法:XML格式举例 ?xml version=1.0 encoding=UTF-8? urlset url loc//loc lastmod2010-01-01/lastmod changefreqalways/changefreq priority1.0/priority /url /urlset 百度站点地图的写法:索引Sitemap举例 ?xml version=1.0 encoding=UTF-8? sitemapindex sitemap loc/1.xml/loc lastmod2010-01-01/lastmod /sitemap sitemap loc/2.xml/loc lastmod2010-02-01/lastmod /sitemap /sitemapindex 百度站点地图的写法:XML标签说明: 百度站点地图的写法:文本格式Sitemap说明 您可以提供纯文本文件,其中每行包含一个网址。 文本文件格式举例: /catalog?item=1 /catalog?item=2 此文本文件需要遵循以下指南: 文本文件每行都必须只有一个网址。网址中不能有换行。 您必须指定完整的网址,包括“http://”。 每个文本文件最多可包含50,000个网址,并且 应小于10MB(10,485,760字节)。如果网站所包含的网址超过50,000个,则可将列表分割成多个文本文件,然后分别添加每个文件。 文本文件需使用UTF-8编码或GBK编码。 文本文件不应包含网址列表以外的任何信息。 您可以使用gzip压缩Sitemap文件,以减少带宽要求;但是压缩前的Sitemap文件应小于10MB(10,485,760字节)。 百度站点地图的写法:使用Sitemap索引文件(对多个Sitemap文件)说明 使用Sitemap索引文件必须: 以 sitemapindex 开始标记作为开始,以 /sitemapindex 结束标记作为结束。 每个Sitemap包含一个 sitemap 条目作为 XML 父标记。 每个 sitemap 父标记包含一个 loc 子标记条目。 站点地图生成器:sitemap x 站点地图生成器:sitemap x 站点地图生成器:sitemap x 站点地图生成器:sitemap x 站点地图生成器:sitemap x 站点地图生成器:sitemap x 站点地图生成器:sitemap x 各大搜索引擎对应的机器人 Google -- googlebot MSN Search -- msnbot Yahoo -- yahoo-slurp Baidu -- baiduspider Ask/Teoma -- teoma Cuil -- twiceler GigaBlast -- gigabot Scrub The Web -- scrubby DMOZ Checker -- robozilla Nutch -- nutch Alexa/Wayback -- ia_archiver Naver -- naverbot, yeti AltaVista -- scooter AllTheWeb -- FAST-WebCrawler Inktomi -- Slurp Disallow : 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow 开头的URL均不会被robot访问到。例如Disallow: /help对/help.html 和/help/index.html都不允许搜索引擎访问,而Disallow: /help/则允许robot访问/help.html,而不能访问/help/index.html。 任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在/robots.txt文件中,至少要有一条Disallow记录。如果 /robots.txt是一个空文件,则对于所有的搜索引擎robot,该网站都是开

文档评论(0)

iyjt + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档