日本在线观看,国产激情视频一区二区在线观看 ,а√天堂资源官网在线资源,性网站在线看,久久99影视,国产精品嫩草影院av蜜臀,精品久久久香蕉免费精品视频,欧美日韩国产一区二区三区地区,国产性做久久久久久,在线看成人短视频

Categories


Tags


禁止搜索引擎收錄的方法

1. 什么是robots.txt文件?

搜索引擎使用spider程序自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個網(wǎng)站時,會首先會檢查該網(wǎng)站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個robots.txt,在文件中聲明 該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

請注意,僅當您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請勿建立robots.txt文件。

2. robots.txt文件放在哪里?

robots.txt文件應該放置在網(wǎng)站根目錄下。舉例來說,當spider訪問一個網(wǎng)站(比如 http://www.abc.com)時,首先會檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據(jù)這個文件的內(nèi)容,來確定它訪問權(quán)限的范圍。

網(wǎng)站 URL

相應的 robots.txt的 URL

http://www.w3.org/

http://www.w3.org/robots.txt

http://www.w3.org:80/

http://www.w3.org:80/robots.txt

http://www.w3.org:1234/

http://www.w3.org:1234/robots.txt

http://w3.org/

http://w3.org/robots.txt

3. 我在robots.txt中設置了禁止百度收錄我網(wǎng)站的內(nèi)容,為何還出現(xiàn)在百度搜索結(jié)果中?

如果其他網(wǎng)站鏈接了您robots.txt文件中設置的禁止收錄的網(wǎng)頁,那么這些網(wǎng)頁仍然可能會出現(xiàn)在百度的搜索結(jié)果中,但您的網(wǎng)頁上的內(nèi)容不會被抓取、建入索引和顯示,百度搜索結(jié)果中展示的僅是其他網(wǎng)站對您相關(guān)網(wǎng)頁的描述。

4. 禁止搜索引擎跟蹤網(wǎng)頁的鏈接,而只對網(wǎng)頁建索引

如果您不想搜索引擎追蹤此網(wǎng)頁上的鏈接,且不傳遞鏈接的權(quán)重,請將此元標記置入網(wǎng)頁的 部分:

<meta name="robots" content="nofollow">

如果您不想百度追蹤某一條特定鏈接,百度還支持更精確的控制,請將此標記直接寫在某條鏈接上:

<a href="signin.php" rel="nofollow">sign in</a>

要允許其他搜索引擎跟蹤,但僅防止百度跟蹤您網(wǎng)頁的鏈接,請將此元標記置入網(wǎng)頁的部分:

<meta name="Baiduspider" content="nofollow">

5. 禁止搜索引擎在搜索結(jié)果中顯示網(wǎng)頁快照,而只對網(wǎng)頁建索引

要防止所有搜索引擎顯示您網(wǎng)站的快照,請將此元標記置入網(wǎng)頁的部分:

<meta name="robots" content="noarchive">

要允許其他搜索引擎顯示快照,但僅防止百度顯示,請使用以下標記:

<meta name="Baiduspider" content="noarchive">

注:此標記只是禁止百度顯示該網(wǎng)頁的快照,百度會繼續(xù)為網(wǎng)頁建索引,并在搜索結(jié)果中顯示網(wǎng)頁摘要。

6. 我想禁止百度圖片搜索收錄某些圖片,該如何設置?

禁止Baiduspider抓取網(wǎng)站上所有圖片、禁止或允許Baiduspider抓取網(wǎng)站上的某種特定格式的圖片文件可以通過設置robots實現(xiàn),請參考“robots.txt文件用法舉例”中的例10、11、12。

7. robots.txt文件的格式

"robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

<field>:<optional space><value><optional space>

在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:

User-agent:

該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受 到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

Disallow:

該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。"Disallow:"說明允許robot訪問該網(wǎng)站的所有url,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。

Allow:

該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭 的URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網(wǎng)站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現(xiàn)允許訪問一部分網(wǎng)頁同時禁止訪問其它所有URL的功能。

需要特別注意的是Disallow與Allow行的順序是有意義的,robot會根據(jù)第一個匹配成功的Allow或Disallow行確定是否訪問某個URL。

使用"*"and"$":

Baiduspider支持使用通配符"*"和"$"來模糊匹配url。

"$" 匹配行結(jié)束符。

"*" 匹配0或多個任意字符。

注:我們會嚴格遵守robots的相關(guān)協(xié)議,請注意區(qū)分您不想被抓取或收錄的目錄的大小寫,我們會對robots中所寫的文件和您不想被抓取和收錄的目錄做精確匹配,否則robots協(xié)議無法生效。

8. URL匹配舉例

Allow或Disallow的值

URL

匹配結(jié)果

/tmp

/tmp

yes

/tmp

/tmp.html

yes

/tmp

/tmp/a.html

yes

/tmp

/tmphoho

no

/Hello*

/Hello.html

yes

/He*lo

/Hello,lolo

yes

/Heap*lo

/Hello,lolo

no

html$

/tmpa.html

yes

/a.html$

/a.html

yes

htm$

/a.html

no

9. robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分

下載該robots.txt文件

User-agent: *

Disallow: /

例2. 允許所有的robot訪問

(或者也可以建一個空文件 "/robots.txt")

User-agent: *

Allow: /

例3. 僅禁止Baiduspider訪問您的網(wǎng)站

User-agent: Baiduspider

Disallow: /

例4. 僅允許Baiduspider訪問您的網(wǎng)站

User-agent: Baiduspider

Allow: /

User-agent: *

Disallow: /

例5. 僅允許Baiduspider以及Googlebot訪問

User-agent: Baiduspider

Allow: /

User-agent: Googlebot

Allow: /

User-agent: *

Disallow: /

例6. 禁止spider訪問特定目錄

在這個例子中,該網(wǎng)站有三個目錄對搜索引擎的訪問做了限制,即robot不會訪問這三個目錄。需要注意的是對每一個目錄必須分開聲明,而不能寫成 "Disallow: /cgi-bin/ /tmp/"。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

例7. 允許訪問特定目錄中的部分url

User-agent: *

Allow: /cgi-bin/see

Allow: /tmp/hi

Allow: /~joe/look

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

例8. 使用"*"限制訪問url

禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

User-agent: *

Disallow: /cgi-bin/*.htm

例9. 使用"$"限制訪問url

僅允許訪問以".htm"為后綴的URL。

User-agent: *

Allow: /*.htm$

Disallow: /

例10. 禁止訪問網(wǎng)站中所有的動態(tài)頁面

User-agent: *

Disallow: /*?*

例11. 禁止Baiduspider抓取網(wǎng)站上所有圖片

僅允許抓取網(wǎng)頁,禁止抓取任何圖片。

User-agent: Baiduspider

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

例12. 僅允許Baiduspider抓取網(wǎng)頁和.gif格式圖片

允許抓取網(wǎng)頁和gif格式圖片,不允許抓取其他格式圖片

User-agent: Baiduspider

Allow: /*.gif$

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.png$

Disallow: /*.bmp$

例13. 僅禁止Baiduspider抓取.jpg格式圖片

User-agent: Baiduspider

Disallow: /*.jpg$

10. robots.txt文件參考資料

robots.txt文件的更具體設置,請參看以下鏈接:

Web Server Administrator's Guide to the Robots Exclusion Protocol

HTML Author's Guide to the Robots Exclusion Protocol

The original 1994 protocol description, as currently deployed

The revised Internet-Draft specification, which is not yet completed or implemented

來源:百度搜索資源平臺 百度搜索學堂


Public @ 2015-10-28 16:08:55

巧用Robots避免蜘蛛黑洞

對于百度搜索引擎來說,蜘蛛黑洞特指網(wǎng)站通過極低的成本制造出大量參數(shù)過多,及內(nèi)容雷同但具體參數(shù)不同的動態(tài)URL ,就像一個無限循環(huán)的“黑洞”將spider困住,Baiduspider浪費了大量資源抓取的卻是無效網(wǎng)頁。比如很多網(wǎng)站都有篩選功能,通過篩選功能產(chǎn)生的網(wǎng)頁經(jīng)常會被搜索引擎大量抓取,而這其中很大一部分檢索價值不高,如“500-1000之間價格的租房”,首先網(wǎng)站(包括現(xiàn)實中)上基本沒有相關(guān)資源,

Public @ 2020-05-11 16:08:55

robots.txt文件有什么必要?

robots.txt文件是一個文本文件,用于向搜索引擎和其他機器人網(wǎng)站爬蟲指定哪些頁面或內(nèi)容可以被爬取,哪些頁面或內(nèi)容不能被爬取。它的主要作用是為了控制搜索引擎和其他機器人網(wǎng)站爬蟲訪問和抓取網(wǎng)站內(nèi)容,保護網(wǎng)站的隱私和安全。如果一個網(wǎng)站不想被某些搜索引擎或爬蟲訪問、爬取和索引,就可以通過robots.txt文件來禁止它們。另外,robots.txt文件還可以防止一些機器人抓取出現(xiàn)線上攻擊或濫用等安全

Public @ 2023-06-12 20:00:21

百度robots中的user-agent

百度各個產(chǎn)品使用不同的user-agent:無線搜索Baiduspider-mobile圖片搜索Baiduspider-image視頻搜索Baiduspider-video新聞搜索Baiduspider-news百度搜藏Baiduspider-favo百度聯(lián)盟Baiduspider-cpro商務搜索Baiduspider-ads網(wǎng)頁以及其他搜索Baiduspider來源:360站長平臺

Public @ 2022-11-11 16:09:02

robots使用技巧

以下是一些使用robots.txt文件的技巧和最好的做法: 1. 不要放棄robots.txt - 一些網(wǎng)站管理員沒有robots.txt文件,因為他們認為這是保護網(wǎng)站的安全措施,但事實上它可能會影響搜索引擎爬取。 2. 維護一個更新的robots.txt文件 - 確保您的robots.txt文件不是過時的。如果您從網(wǎng)站上刪除了某些頁面或文件夾,請務必更新文件以反映更改。 3. 不要使用ro

Public @ 2023-05-28 16:00:31

更多您感興趣的搜索

0.512947s
老鸭窝亚洲一区二区三区| 91女神在线视频| 色婷婷久久一区二区| 99精品视频在线| 欧美人与性动交| 亚洲欧美日韩综合国产aⅴ| 国产国语刺激对白av不卡| 国内不卡的二区三区中文字幕 | 欧美日韩国产区一| 成人性生交大片免费观看网站| 在线观看91视频| 国内精品偷拍| 欧美成人精品三级在线观看| 日韩va亚洲va欧美va久久| 李宗瑞系列合集久久| 国产喷白浆一区二区三区| av日韩国产| 日韩一区二区三区四区| 激情婷婷综合| 欧美中文字幕在线观看| 丁香另类激情小说| 最新日本在线观看| 5月丁香婷婷综合| 日韩一区电影| 国产99久久精品一区二区| 成人福利视频网站| 日本不卡影院| 欧美成人激情免费网| 偷偷www综合久久久久久久| 国产精品福利观看| 国产亚洲成aⅴ人片在线观看| 91探花在线观看| 精品国产乱码久久久久久久久| 久久精品国产99久久| 国产精品偷伦免费视频观看的| 26uuu亚洲| 日韩成人亚洲| 久久精品免费播放| 高清在线不卡av| 九色porny视频在线观看| 久久悠悠精品综合网| 亚洲日本中文字幕免费在线不卡| 激情欧美一区| 在线中文av| 欧美小视频在线| 成人h动漫免费观看网站| 欧美黄色性视频| 91在线免费视频观看| 一个人看的www视频在线免费观看 一个人www视频在线免费观看 | 日韩美女在线看免费观看| 亚洲精品国产综合区久久久久久久| 亚洲精品a级片| 91青娱乐在线视频| 欧美视频中文在线看| 波多野结衣在线观看一区二区| 黄色三级高清在线播放| 亚洲一区二区三区自拍| 久久99青青| 国产国产国产国产国产国产| 亚洲福利一二三区| 日韩精品欧美| 美女的诞生在线观看高清免费完整版中文 | 色噜噜狠狠色综合欧洲selulu| 九色精品国产蝌蚪| jlzzjlzz欧美大全| 激情懂色av一区av二区av| 欧洲乱码伦视频免费| 嫩草嫩草嫩草| 在线国产亚洲欧美| 精久久久久久| 黄色大片在线播放| 亚洲香蕉成人av网站在线观看| 久久国产精品第一页| 午夜影院在线观看国产主播| 欧美成人免费一级人片100| 91影院在线免费观看| 国产乱码精品一区二区三区亚洲人 | 久久网站免费观看| 中文字幕在线网| 91精品国产综合久久香蕉麻豆 | 国产最新精品| 中国在线观看免费国语版电影| 欧美专区在线观看一区| 亚洲乱亚洲高清| 91精品久久| 久久黄色av网站| 中文一区在线播放| 久久99国内| 午夜亚洲成人| 日韩av在线免费| k8久久久一区二区三区| 日本在线一区二区三区| 国产精品久久久久99| 色8久久精品久久久久久蜜| 在线视频免费在线观看一区二区| 欧美性受ⅹ╳╳╳黑人a性爽| 久久久久www| 亚洲激情一二三区| 欧美色123| 免费在线观看av电影| 欧美床上激情在线观看| 亚洲激情在线播放| 在线日韩欧美| 日本三级一区| 国产精品免费久久久| 欧美日韩一级片网站| 国内成人精品2018免费看| 久久久精品区| 小水嫩精品福利视频导航| 亚洲欧美一区二区三区情侣bbw| 久久精品亚洲精品国产欧美kt∨ | 欧美激情一区三区| 成人久久电影| www免费在线观看| 欧美国产第一页| 香蕉成人啪国产精品视频综合网| 国产欧美一区二区色老头| 激情开心成人网| 成人网免费看| 日韩欧美一区在线| 2021中文字幕一区亚洲| 欧美色网址大全| 成人黄色网址| 欧美亚洲激情在线| 欧美午夜不卡在线观看免费| 久久国产欧美日韩精品| 亚洲精品国产九九九| 亚洲精品一区视频| 日韩在线播放一区| 精品久久久久久中文字幕一区奶水 | 九色porny丨首页在线| 欧美大片免费看| 欧美性猛交xxxx黑人猛交| 麻豆91在线看| 日韩aaa久久蜜桃av| 操你啦视频在线| 国产97免费视| 欧美tk—视频vk| 国产精品嫩草久久久久| 日韩午夜在线| 亚洲精品影片| 麻豆影视国产在线观看| 日本国产高清不卡| 欧美精品一区二区三区在线| 成人免费一区二区三区在线观看| 国产九九精品| 精品久久ai| 金瓶狂野欧美性猛交xxxx | 久久99精品久久久久久国产越南 | 亚洲天天在线日亚洲洲精| 一区二区视频在线| 久久99精品一区二区三区三区| 蜜桃精品wwwmitaows| 青草在线视频| 一级毛片aaaaaa免费看| 欧美成人精品在线| 91精品久久久久久久91蜜桃| 一区在线观看免费| 精品一区二区三区香蕉蜜桃 | 日韩中文字幕免费看| 色综合中文字幕国产| 99久久免费国产| 一区二区亚洲精品| 福利在线一区| 男人的天堂免费在线视频| 国产香蕉视频在线观看| 美乳少妇欧美精品| 欧美一区二区三级| 亚洲精品视频在线看| 国产综合久久久久久久久久久久| 日韩毛片视频| 日韩成人在线一区| 成人影院在线观看| 天天看片激情网站| 91精品国产免费久久久久久| 国产视频久久久久| 欧美视频在线一区二区三区 | caoporn免费在线| 国产剧情演绎av| 九九精品在线视频| 欧美精品一区男女天堂| 日韩欧美第一页| 中文字幕欧美区| 国内国产精品久久| 亚洲久久一区二区| 国产一区二区亚洲| 日韩综合久久| 波多野结衣久久| 国产福利免费在线观看| 成人国产精品免费视频| 欧美日韩ab片| 国产午夜精品一区二区三区| 色8久久人人97超碰香蕉987| |精品福利一区二区三区| 国产成人在线视频播放| 久久先锋影音| 亚洲特级毛片| 亚洲国产精品久久久天堂| 亚洲v天堂v手机在线| 精品亚洲a∨一区二区三区18|