中文字幕日韩精品一区二区免费_精品一区二区三区国产精品无卡在_国精品无码专区一区二区三区_国产αv三级中文在线

哪種情況下需要使用robots.txt

在優(yōu)化網(wǎng)站過程中,有一些場景中,我們是不想讓蜘蛛來抓取網(wǎng)站內(nèi)容的,比如:網(wǎng)站中重要及私密的內(nèi)容、后臺的數(shù)據(jù)、測試階段的網(wǎng)站,這些都是我們不想展示給用戶看的,所以就沒必要讓這些內(nèi)容收錄,就需要禁止蜘蛛抓取。網(wǎng)站建設(shè)★網(wǎng)站設(shè)計(jì)★網(wǎng)站制作★網(wǎng)頁設(shè)計(jì)-800元全包;企業(yè)網(wǎng)絡(luò)推廣☆網(wǎng)站優(yōu)化☆seo☆關(guān)鍵詞排名☆百度快照-2200元全年展示;做網(wǎng)站優(yōu)化排名-網(wǎng)站建設(shè)公司

創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設(shè),云安企業(yè)網(wǎng)站建設(shè),云安品牌網(wǎng)站建設(shè),網(wǎng)站定制,云安網(wǎng)站建設(shè)報(bào)價(jià),網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,云安網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時(shí)我們時(shí)刻保持專業(yè)、時(shí)尚、前沿,時(shí)刻以成就客戶成長自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。

另外還有一種情況,很多電子商務(wù)的網(wǎng)站,有很多通過條件去篩選、過濾的頁面,這些頁面通常沒有什么意義,我們也不希望浪費(fèi)蜘蛛的抓取份額,所以也要禁止蜘蛛的抓取。

如何禁止蜘蛛抓取特定的頁面呢?

robots(蜘蛛?yún)f(xié)議)是其中一種方式,也是最常用的一種。

robots是一個(gè)純文本文件,用于聲明該網(wǎng)站中不想被蜘蛛訪問的部分,或者指定蜘蛛抓取的部分。

當(dāng)蜘蛛訪問一個(gè)站點(diǎn)時(shí),它會首先檢查該站點(diǎn)是否存在robots.txt 文件,如果找到,蜘蛛就會按照該文件中的內(nèi)容來確定抓取的范圍;如果該文件不存在,那么蜘蛛就會沿著鏈接直接抓取。

即,只有在需要禁止抓取某些內(nèi)容時(shí),寫robots.txt才有意義。

robots.txt 文件放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫,正確的寫法是robots.txt。

要查看某網(wǎng)站的robots.txt文件,在瀏覽器中輸入的網(wǎng)址:

http:/www.xxx.com/robots.txt

其中www.xxx.com是要查詢網(wǎng)站的域名。

一、robots.txt的語法

robots.txt文件的常用語法有3種,分別是User-agent、Allow、Disallow,下面講解3種語法的具體用法。

(1) User-agent

指定robots.txt 中的規(guī)則針對哪個(gè)搜索引擎蜘蛛(每種搜索引擎的蜘蛛都不一樣)。

針對所有搜索引擎蜘蛛的寫法是User-agent:*,通配符*代表所有搜索引擎。只適用于百度蜘蛛的正確寫法是User-agent:Baiduspider。不同的搜索引擎,其蜘蛛名稱也不相同。

哪種情況下需要使用robots.txt

不同搜索引擎的蜘蛛名

(2 )Allow

允許搜索引擎蜘蛛抓取某些文件。例如允許蜘蛛訪問網(wǎng)站中的/a/目錄,正確寫法是Allow: /a/。

$: 表示匹配URL結(jié)尾的字符。例如允許搜索引擎抓蜘蛛取以.htm為后綴的URL,寫法是Allow:.htm$。

(3) Disallow

告訴搜索引擎不要抓取某些文件或目錄。例如禁止蜘蛛抓取/admin/目錄的寫法是 Disallow:/admin/。

禁止的目錄或文件必須分開寫,每個(gè)一行,例如禁止所有的搜索引擎蜘蛛抓取/a/、/b/、/c/目錄,正確的寫法是:

User-agent:

Disallow:/a/

Disallow:/b/

Disallow:/c/

在網(wǎng)站優(yōu)化中,SEOer需要熟練掌握robots.txt的基本語法。下面分享一些常見的robots.txt語法使用案例,如圖所示。

哪種情況下需要使用robots.txt

二、robots.txt應(yīng)用

robots.txt 文件的一個(gè)用法是在robots.txt 文件中指定 sitemap 的位置。具體的用法是 sitemap:http://www.matuzi.cn/sitemap.xml,這樣就告訴搜索引擎蜘蛛這個(gè)頁面是網(wǎng)站地圖。

robots.txt 文件是搜索引擎蜘蛛進(jìn)入網(wǎng)站后訪問的第一個(gè)文件,在編寫時(shí)確實(shí)有很多需要注意的地方,如果日常使用中不注意語法的正確使用,有些語句可能就發(fā)揮不了應(yīng)有的作用,會影響搜索引擎蜘蛛對網(wǎng)站的訪問,因此要正確編寫。

對于SEOer來講,在優(yōu)化網(wǎng)站過程中,當(dāng)發(fā)現(xiàn)網(wǎng)站中有隱私文件需要屏蔽搜索引擎蜘蛛抓取時(shí),可以設(shè)置robots.txt 屏蔽搜索引擎蜘蛛抓取這些隱私文件。如果網(wǎng)站只是一般的企業(yè)展示網(wǎng)站,可以不添加robots.txt。

三、robots meta標(biāo)簽(更精準(zhǔn)的禁止蜘蛛抓取)

如果搜索引擎已經(jīng)收錄網(wǎng)頁,而這個(gè)網(wǎng)頁是我們不想讓搜索引擎收錄的,robots.txt 文件解決不了這個(gè)問題,而robots meta標(biāo)簽卻可以解決。

robots.txt  文件主要是限制整個(gè)站點(diǎn)或者目錄的蜘蛛訪問情況,而robots meta標(biāo)簽則主要是針對某個(gè)具體的頁面。robots meta標(biāo)簽放在頁面中,專門用來告訴搜索引擎蜘蛛如何抓取該頁的內(nèi)容。

robots meta標(biāo)簽的基本寫法是:

<meta name="robots" content="index.folow>

其中有幾項(xiàng)需要特別注意的內(nèi)容。

(1)在robots meta 標(biāo)簽中,name="robots"表示所有的搜索引擎,也可以針對某個(gè)具體的搜索引擎,如針對百度搜索引擎可以寫為name="Baiduspider"。

(2)content部分有4個(gè)指令選項(xiàng),以英文逗號“,”隔開,分別是:index、follow、noindex、nofollow。

● index指令告訴搜索引擎蜘蛛可以抓取該頁面。

● noindex指令與index指令相反,表示搜索引擎蜘蛛不可以抓取該頁面。

● follow 指令表示搜索引擎蜘蛛可以爬行該頁面上的鏈接。

● nofolow指令與follow指令相反,表示搜索引擎蜘蛛不可以爬行該頁面上的其他鏈接。

綜上所述,robots meta標(biāo)簽有以下4種組合:

<meta name="robots" content="index,follow">

<meta name="robots" content="noindex,follow">

<meta name="robots" content="index,nofollow">

<meta name="robots" content="noindex,nofollow">

當(dāng)robots meta 標(biāo)簽的content值為"index,follow"時(shí),表示該頁面可以被抓取,該頁面上的鏈接也可以被繼續(xù)爬行下去,robots meta標(biāo)簽可以簡寫為:

meta name="robots" content="all"

當(dāng)robots meta標(biāo)簽的content值為”noindex,nofolow"時(shí),表示該頁面不可以被抓取,該頁面上的鏈接也不可以被繼續(xù)爬行,robots meta標(biāo)簽可以簡寫為:

meta name="robots" content="none"

robots meta標(biāo)簽是限制某個(gè)具體頁面的蜘蛛訪問情況,因此當(dāng)發(fā)現(xiàn)網(wǎng)站中某個(gè)頁面需要屏蔽蜘蛛抓取時(shí),可以在該頁面的源代碼中添加robots meta標(biāo)簽,robots meta標(biāo)簽添加在頁面的<head></head>之間。

當(dāng)然,有時(shí)候即使設(shè)置了禁止抓取的協(xié)議也是沒用的,有些搜索引擎就是死皮賴臉要來抓取你,不遵循這些協(xié)議,這種情況比較少,遇到的概率也很低,所以現(xiàn)在不必要考慮這種情況。

新聞標(biāo)題:哪種情況下需要使用robots.txt
文章起源:http://m.rwnh.cn/article16/dghspdg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供關(guān)鍵詞優(yōu)化標(biāo)簽優(yōu)化、搜索引擎優(yōu)化App設(shè)計(jì)、網(wǎng)站營銷網(wǎng)頁設(shè)計(jì)公司

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站建設(shè)
柏乡县| 安阳市| 裕民县| 正阳县| 兖州市| 门源| 永善县| 通道| 西宁市| 安康市| 宜兰县| 湖口县| 镇巴县| 平舆县| 吉隆县| 平顺县| 额济纳旗| 怀安县| 邢台市| 赤水市| 临汾市| 沿河| 防城港市| 莎车县| 微山县| 杂多县| 黎川县| 西宁市| 海伦市| 巴彦淖尔市| 宣汉县| 炎陵县| 赫章县| 包头市| 师宗县| 喜德县| 长丰县| 法库县| 姚安县| 阿克| 佛冈县|