<thead id="toltr"></thead>
<progress id="toltr"><strike id="toltr"></strike></progress>

  • <ul id="toltr"><meter id="toltr"></meter></ul>
    <b id="toltr"></b>

    <strike id="toltr"></strike>

    <b id="toltr"></b>

  • 歡迎進(jìn)入紅數(shù)信息技術(shù)有限公司官網(wǎng)
    4008088160
    現(xiàn)在的位置:首頁(yè) > 發(fā)布網(wǎng)絡(luò)推廣公司-營(yíng)銷推廣 > robots.txt在SEO中作用及寫法
    robots.txt在SEO中作用及寫法
    信息來源:湖南優(yōu)度網(wǎng)絡(luò)公司  發(fā)布日期:2012/1/8 瀏覽數(shù)量:1040
    文章導(dǎo)讀: 在進(jìn)行網(wǎng)站優(yōu)化的時(shí)候,經(jīng)常會(huì)使用robots文件把一些內(nèi)容不想讓蜘蛛抓取,以前寫過一篇網(wǎng)站優(yōu)化robots.txt文件的運(yùn)用 現(xiàn)在寫這編文章在補(bǔ)充一點(diǎn)點(diǎn)知識(shí)!...

    在進(jìn)行網(wǎng)站優(yōu)化的時(shí)候,經(jīng)常會(huì)使用robots文件把一些內(nèi)容不想讓蜘蛛抓取,以前寫過一篇網(wǎng)站優(yōu)化robots.txt文件的運(yùn)用 現(xiàn)在寫這編文章在補(bǔ)充一點(diǎn)點(diǎn)知識(shí)!什么是robots.txt文件

      搜索引擎通過一種爬蟲spider程序(又稱搜索蜘蛛、robot、搜索機(jī)器人等),自動(dòng)搜集互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取相關(guān)信息。

      鑒于網(wǎng)絡(luò)安全與隱私的考慮,搜索引擎遵循robots.txt協(xié)議。通過根目錄中創(chuàng)建的純文本文件robots.txt,網(wǎng)站可以聲明不想被robots訪問的部分。每個(gè)網(wǎng)站都可以自主控制網(wǎng)站是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內(nèi)容。當(dāng)一個(gè)搜索引擎的爬蟲訪問一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會(huì)按照該文件中的內(nèi)容來確定訪問的范圍。

      robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫。robots.txt文件的格式

      User-agent: 定義搜索引擎的類型

      Disallow: 定義禁止搜索引擎收錄的地址

      Allow: 定義允許搜索引擎收錄的地址

      我們常用的搜索引擎類型有:

      google蜘蛛:googlebot

      百度蜘蛛:baiduspider

      yahoo蜘蛛:Yahoo!slurp

      alexa蜘蛛:ia_archiver

      bing蜘蛛:MSNbot

      altavista蜘蛛:scooter

      lycos蜘蛛:lycos_spider_(t-rex)

      alltheweb蜘蛛:fast-webcrawler

      inktomi蜘蛛: slurp

    robots.txt文件的寫法

      User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個(gè)通配符

      Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

      Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

      Disallow: /ABC/ 這里定義是禁止爬尋ABC目錄下面的目錄

      Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

      Disallow: /*?* 禁止訪問網(wǎng)站中所有的動(dòng)態(tài)頁(yè)面

      Disallow: /jpg$ 禁止抓取網(wǎng)頁(yè)所有的.jpg格式的圖片

      Disallow:/ab/adc.html 禁止爬去ab文件夾下面的adc.html文件。

      User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個(gè)通配符

      Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄

      Allow: /tmp 這里定義是允許爬尋tmp的整個(gè)目錄

      Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

      Allow: .gif$ 允許抓取網(wǎng)頁(yè)和gif格式圖片robots.txt文件用法舉例

      例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分

      User-agent: *

      Disallow: /

      實(shí)例分析:淘寶網(wǎng)的 Robots.txt文件

      User-agent: Baiduspider

      Disallow: /

      很顯然淘寶不允許百度的機(jī)器人訪問其網(wǎng)站下其所有的目錄。

      例2. 允許所有的robot訪問 (或者也可以建一個(gè)空文件 “/robots.txt” file)

      User-agent: *

      Allow:

      例3. 禁止某個(gè)搜索引擎的訪問

      User-agent: BadBot

      Disallow: /

      例4. 允許某個(gè)搜索引擎的訪問

      User-agent: baiduspider

      allow:/

      例5.一個(gè)簡(jiǎn)單例子

      在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對(duì)搜索引擎的訪問做了限制,即搜索引擎不會(huì)訪問這三個(gè)目錄。

      需要注意的是對(duì)每一個(gè)目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”。

      User-agent:后的*具有特殊的含義,代表“any robot”,所以在該文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”這樣的記錄出現(xiàn)。

      User-agent: *

      Disallow: /cgi-bin/

      Disallow: /tmp/

      Disallow: /~joe/

      Robot特殊參數(shù):

      允許 Googlebot:

      如果您要攔截除 Googlebot 以外的所有漫游器不能訪問您的網(wǎng)頁(yè),可以使用下列語(yǔ)法:

      User-agent:

      Disallow:/

      User-agent:Googlebot

      Disallow:

      Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。

      “Allow”擴(kuò)展名:

      Googlebot 可識(shí)別稱為“Allow”的 robots.txt 標(biāo)準(zhǔn)擴(kuò)展名。其他搜索引擎的漫游器可能無(wú)法識(shí)別此擴(kuò)展名,因此請(qǐng)使用您感興趣的其他搜索引擎進(jìn)行查找。“Allow”行的作用原理完全與“Disallow”行一樣。只需列出您要允許的目錄或頁(yè)面即可。

      您也可以同時(shí)使用“Disallow”和“Allow”。例如,要攔截子目錄中某個(gè)頁(yè)面之外的其他所有頁(yè)面,可以使用下列條目:

      User-Agent:Googlebot

      Disallow:/folder1/

      Allow:/folder1/myfile.html

      這些條目將攔截 folder1 目錄內(nèi)除 myfile.html 之外的所有頁(yè)面。

      如果您要攔截 Googlebot 并允許 Google 的另一個(gè)漫游器(如 Googlebot-Mobile),可使用”Allow”規(guī)則允許該漫游器的訪問。例如:

      User-agent:Googlebot

      Disallow:/

      User-agent:Googlebot-Mobile

      Allow:

      使用 * 號(hào)匹配字符序列:

      您可使用星號(hào) (*) 來匹配字符序列。例如,要攔截對(duì)所有以 private 開頭的子目錄的訪問,可使用下列條目:

      User-Agent:Googlebot

      Disallow:/private*/

      要攔截對(duì)所有包含問號(hào) (?) 的網(wǎng)址的訪問,可使用下列條目:

      User-agent:*

      Disallow:/*?*

      使用 $ 匹配網(wǎng)址的結(jié)束字符

      您可使用 $ 字符指定與網(wǎng)址的結(jié)束字符進(jìn)行匹配。例如,要攔截以 .asp 結(jié)尾的網(wǎng)址,可使用下列條目:

      User-Agent:Googlebot

      Disallow:/*.asp$

      您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個(gè)會(huì)話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會(huì)抓取重復(fù)的網(wǎng)頁(yè)。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁(yè)版本。在此情況下,可對(duì) robots.txt 文件進(jìn)行如下設(shè)置:

      User-agent:*

      Allow:/*?$

      Disallow:/*?

      Disallow:/ *?

      一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號(hào) (?),而后又是任意字符串的網(wǎng)址)。

      Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號(hào) (?),問號(hào)之后沒有任何字符的網(wǎng)址)。Robots Meta標(biāo)簽

      Robots.txt文件主要是限制整個(gè)站點(diǎn)或者目錄的搜索引擎訪問情況,而Robots Meta標(biāo)簽則主要是針對(duì)一個(gè)個(gè)具體的頁(yè)面。和其他的META標(biāo)簽(如使用的語(yǔ)言、頁(yè)面的描述、關(guān)鍵詞等)一樣,Robots Meta標(biāo)簽也是放在頁(yè)面的中,專門用來告訴搜索引擎ROBOTS如何抓取該頁(yè)的內(nèi)容。

      Robots Meta標(biāo)簽中沒有大小寫之分,name=”Robots”表示所有的搜索引擎,可以針對(duì)某個(gè)具體搜索引擎寫為name=”BaiduSpider”。content部分有四個(gè)指令選項(xiàng):index、noindex、follow、nofollow,指令間以“,”分隔。

      index指令告訴搜索機(jī)器人抓取該頁(yè)面;

      follow指令表示搜索機(jī)器人可以沿著該頁(yè)面上的鏈接繼續(xù)抓取下去;

      Robots Meta標(biāo)簽的缺省值是index和follow,只有inktomi除外,對(duì)于它,缺省值是index、nofollow。

      需要注意的是:上述的robots.txt和Robots Meta標(biāo)簽限制搜索引擎機(jī)器人(ROBOTS)抓取站點(diǎn)內(nèi)容的辦法只是一種規(guī)則,需要搜索引擎機(jī)器人的配合才行,并不是每個(gè)ROBOTS都遵守的。

      目前看來,絕大多數(shù)的搜索引擎機(jī)器人都遵守robots.txt的規(guī)則,而對(duì)于RobotsMETA標(biāo)簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個(gè)指令“archive”,可以限制GOOGLE是否保留網(wǎng)頁(yè)快照。
    相關(guān)信息
    • 網(wǎng)絡(luò)營(yíng)銷培訓(xùn)
    • 微網(wǎng)站
    • 掃二維碼
    • 1
    • 2
    • 3
    • 最新上傳
    • 精品案例
    18973218026
    其他業(yè)務(wù)合作請(qǐng)發(fā)下面郵箱
    郵箱:254596208@qq.com
    地址:湖南省湘潭市岳塘區(qū)霞光東路58號(hào)(維也納酒店6樓)
    營(yíng)銷型網(wǎng)站建設(shè)掃一掃關(guān)注官方微信

    關(guān)注優(yōu)度

    官方微信
    官方微博
    官網(wǎng)首頁(yè)
    亚洲日本中文字幕天天跟新,无码综合黄色在线,亚洲人成网站在线观看无码,久久久久亚洲无码
    <thead id="toltr"></thead>
    <progress id="toltr"><strike id="toltr"></strike></progress>

  • <ul id="toltr"><meter id="toltr"></meter></ul>
    <b id="toltr"></b>

    <strike id="toltr"></strike>

    <b id="toltr"></b>