日本在线观看,国产激情视频一区二区在线观看 ,а√天堂资源官网在线资源,性网站在线看,久久99影视,国产精品嫩草影院av蜜臀,精品久久久香蕉免费精品视频,欧美日韩国产一区二区三区地区,国产性做久久久久久,在线看成人短视频

Categories


Tags


robot.txt在SEO中的作用

在進行網站優化的時候,經常會使用robots文件把一些內容不想讓蜘蛛抓取,以前寫過一篇網站優化robots.txt文件的運用 現在寫這篇文章在補充一點點知識!什么是robots.txt文件

搜索引擎通過一種爬蟲spider程序(又稱搜索蜘蛛、robot、搜索機器人等),自動搜集互聯網上的網頁并獲取相關信息。

鑒于網絡安全與隱私的考慮,搜索引擎遵循robots.txt協議。通過根目錄中創建的純文本文件robots.txt,網站可以聲明不想被robots訪問的部分。每個網站都可以自主控制網站是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內容。當一個搜索引擎的爬蟲訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內容來確定訪問的范圍。

robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫。robots.txt文件的格式

User-agent: 定義搜索引擎的類型

Disallow: 定義禁止搜索引擎收錄的地址

Allow: 定義允許搜索引擎收錄的地址

我們常用的搜索引擎類型有:

google蜘蛛:googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

altavista蜘蛛:scooter

lycos蜘蛛:lycos_spider_(t-rex)

alltheweb蜘蛛:fast-webcrawler

inktomi蜘蛛: slurprobots.txt文件的寫法

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC 這里定義是禁止爬尋ABC整個目錄

Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

Disallow: /*?* 禁止訪問網站中所有的動態頁面

Disallow: .jpg$ 禁止抓取網頁所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬去ab文件夾下面的adc.html所有文件

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網頁和gif格式圖片robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪問網站的任何部分

User-agent: *

Disallow: /

實例分析:淘寶網的 Robots.txt文件

User-agent: Baiduspider

Disallow: /

很顯然淘寶不允許百度的機器人訪問其網站下其所有的目錄。

例2. 允許所有的robot訪問 (或者也可以建一個空文件 "/robots.txt" file)

User-agent: *

Disallow:

例3. 禁止某個搜索引擎的訪問

User-agent: BadBot

Disallow: /

例4. 允許某個搜索引擎的訪問

User-agent: baiduspider

Disallow: User-agent: *Disallow: /

例5.一個簡單例子

在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。

需要注意的是對每一個目錄必須分開聲明,而不要寫成 "Disallow: /cgi-bin/ /tmp/"。

User-agent:后的*具有特殊的含義,代表"any robot",所以在該文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"這樣的記錄出現。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

Robot特殊參數:

允許 Googlebot:

如果您要攔截除 Googlebot 以外的所有漫游器訪問您的網頁,可以使用下列語法:

User-agent:

Disallow:/

User-agent:Googlebot

Disallow:

Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。

"Allow"擴展名:

Googlebot 可識別稱為"Allow"的 robots.txt 標準擴展名。其他搜索引擎的漫游器可能無法識別此擴展名,因此請使用您感興趣的其他搜索引擎進行查找。"Allow"行的作用原理完全與"Disallow"行一樣。只需列出您要允許的目錄或頁面即可。

您也可以同時使用"Disallow"和"Allow"。例如,要攔截子目錄中某個頁面之外的其他所有頁面,可以使用下列條目:

User-Agent:Googlebot

Disallow:/folder1/

Allow:/folder1/myfile.html

這些條目將攔截 folder1 目錄內除 myfile.html 之外的所有頁面。

如果您要攔截 Googlebot 并允許 Google 的另一個漫游器(如 Googlebot-Mobile),可使用"Allow"規則允許該漫游器的訪問。例如:

User-agent:Googlebot

Disallow:/

User-agent:Googlebot-Mobile

Allow:

使用 * 號匹配字符序列:

您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以 private 開頭的子目錄的訪問,可使用下列條目:

User-Agent:Googlebot

Disallow:/private*/

要攔截對所有包含問號 (?) 的網址的訪問,可使用下列條目:

User-agent:*

Disallow:/*?*

使用 $ 匹配網址的結束字符

您可使用 $ 字符指定與網址的結束字符進行匹配。例如,要攔截以 .asp 結尾的網址,可使用下列條目:

User-Agent:Googlebot

Disallow:/*.asp$

您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網址,確保 Googlebot 不會抓取重復的網頁。但是,以 ? 結尾的網址可能是您要包含的網頁版本。在此情況下,可對 robots.txt 文件進行如下設置:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/ *?

一行將攔截包含 ? 的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網址)。

Allow: /*?$ 一行將允許包含任何以 ? 結尾的網址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網址)。Robots Meta標簽

Robots.txt文件主要是限制整個站點或者目錄的搜索引擎訪問情況,而Robots Meta標簽則主要是針對一個個具體的頁面。和其他的META標簽(如使用的語言、頁面的描述、關鍵詞等)一樣,Robots Meta標簽也是放在頁面的中,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內容。

Robots Meta標簽中沒有大小寫之分,name="Robots"表示所有的搜索引擎,可以針對某個具體搜索引擎寫為name="BaiduSpider"。content部分有四個指令選項:index、noindex、follow、nofollow,指令間以","分隔。

index指令告訴搜索機器人抓取該頁面;

follow指令表示搜索機器人可以沿著該頁面上的鏈接繼續抓取下去;

Robots Meta標簽的缺省值是index和follow,只有inktomi除外,對于它,缺省值是index、nofollow。

需要注意的是:上述的robots.txt和Robots Meta標簽限制搜索引擎機器人(ROBOTS)抓取站點內容的辦法只是一種規則,需要搜索引擎機器人的配合才行,并不是每個ROBOTS都遵守的。

目前看來,絕大多數的搜索引擎機器人都遵守robots.txt的規則,而對于RobotsMETA標簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令"archive",可以限制GOOGLE是否保留網頁快照。

來源:360站長平臺


Public @ 2020-01-26 16:09:04

URL如何優化?網站url鏈接形式這樣去做,利于優化

URL該如何優化?方法如下:1、URL越短越好對于搜索引擎來說,只要URL不超過1000個字母,收錄都沒有問題。不過真地使用幾百個字母的URL,用戶看著費事。另外短的URL也利于傳播,做鏈接時短的URL復制沒有什么問題,長的復制也費勁,有時不能完整復制下來,容易出現404錯誤。2、避免太多參數盡可能地使用靜態URL。如果技術上不能實現靜態URL,那動態的URL必須減少參數。一般建議2~3個參數之內

Public @ 2016-11-17 16:12:00

搜索引擎自己應該是可以檢測協議死鏈(404、403等)的,為什么還需要站長提交?

搜索引擎可以通過爬取網頁來檢測協議死鏈,但是這個過程是需要時間和資源的。站長提交可以加快搜索引擎檢測協議死鏈的速度,同時也可以為搜索引擎提供更加準確的信息,因為站長提交的信息可能會包括更多的細節和背景信息,這對搜索引擎來說非常有幫助。此外,站長提交還可以讓搜索引擎更加及時地了解到網站的變化,從而更加準確地更新索引。

Public @ 2023-04-29 22:00:07

哪些網站的目錄需求運用robots.txt文件制止抓取

1. 銀行和金融機構的網站,因為這些網站可能包含敏感信息,例如客戶的個人和財務信息。 2. 醫療保健機構的網站,因為這些網站可能包含個人醫療信息。 3. 藝術、音樂和影片網站,因為這些網站可能包含受版權法保護的內容。 4. 政府網站,特別是警察局和情報機構的網站,因為這些機構的網站可能包含安全敏感信息。 5. 搜索引擎的漏洞報告網站,因為這些網站可能敏感地顯示諸如數據庫配置、文件位置等敏感

Public @ 2023-06-15 06:00:13

禁止搜索引擎收錄的方法

1. 什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。請注意,僅當

Public @ 2015-10-28 16:08:55

更多您感興趣的搜索

0.491270s
日韩免费一级| 亚洲午夜视频在线观看| 少妇一区二区视频| 国产精品1luya在线播放| 日韩成人在线一区| 日韩电影精品| 久久久久毛片免费观看| 香蕉成人在线| 992tv国产精品成人影院| 国产激情视频在线看| heyzo高清中文字幕在线| 丁香花在线电影| 女人高潮被爽到呻吟在线观看| xxxx在线视频| 日本欧美韩国| 欧美午夜网站| 精品国产一区二区三区久久久樱花 | 国产婷婷色一区二区三区四区| 国产精品99久久久久久宅男| 国产999精品久久久久久绿帽| 成人免费看视频| 久久亚洲二区三区| 亚洲视频在线一区观看| 欧美日韩在线视频一区| 欧美亚洲国产一区在线观看网站| 91精品国产品国语在线不卡| 日韩精品在线免费观看视频| 日韩亚洲成人av在线| 97在线视频免费播放| 亚洲精品一区二区| 头脑特工队2免费完整版在线观看| 电影av在线| yellow字幕网在线| 亚洲精品一二三**| 日韩亚洲一区在线| 国产精品久久777777毛茸茸| 国产精品主播直播| 中文字幕精品三区| 日本电影亚洲天堂一区| 精品调教chinesegay| 91高清免费视频| 欧美最顶级a∨艳星| 50度灰在线| 亚洲码欧美码一区二区三区| 一本精品一区二区三区| 国产一区中文字幕| 亚洲欧美激情视频在线观看一区二区三区 | 国产精品自产自拍| 一区二区在线免费| 日韩欧美中文字幕一区| 裸体女人亚洲精品一区| 黄网在线播放| 老牛影视精品| 日韩国产在线| 久久99精品国产.久久久久久| 亚洲天堂2016| 精品福利二区三区| 国产精品九九久久久久久久| 色综合久久影院| 66精品视频在线观看| 日韩午夜免费视频| 国产精品每日更新| 日韩精品一区二区三区四区 | 高清孕妇孕交╳╳交| 成人免费看片| 亚洲老女人视频免费| 麻豆极品一区二区三区| 午夜精品一区二区三区免费视频| 夜夜嗨av色综合久久久综合网| 国产综合福利在线| 蜜臀av在线| 欧美h版在线| 国产清纯白嫩初高生在线观看91| 精品久久五月天| 午夜视频99| 亚洲精品影片| 成人中文字幕合集| 欧美va在线播放| 成人疯狂猛交xxx| 久久精品嫩草影院| 男女激情视频一区| 欧美影院午夜播放| 国产精品91久久久久久| 巨茎人妖videos另类| 美女久久一区| 色婷婷av一区二区三区之一色屋| 97精品免费视频| 97人人爽人人澡人人精品| 午夜精品国产| 亚洲最大成人网4388xx| 久久精品视频一| bestiality新另类大全| 久久久久午夜电影| 夜夜嗨av一区二区三区四季av| 中文字幕日韩高清| 免费av毛片在线看| 欧美.www| 亚洲国产乱码最新视频| 久久久欧美一区二区| 在线观看v片| 视频一区视频二区中文| 激情成人中文字幕| 国产成人精品午夜| japansex久久高清精品| 国产麻豆一精品一av一免费| 精品国产青草久久久久福利| 色播色播色播色播色播在线| 国产一区二区三区四区| 亚洲免费在线观看| 日本成人免费在线| 日韩精品一区二区三区中文在线| 91视频.com| 欧美理论片在线观看| 美女一区网站| 丁香婷婷深情五月亚洲| 中文字幕在线国产精品| 国产三级电影在线播放| 国产一区视频导航| 在线日韩欧美视频| av资源亚洲| 99精品国产99久久久久久白柏| 日韩亚洲欧美中文在线| 桃色av一区二区| 成人短视频下载| 欧美精品一区二区三区国产精品| 伊人网在线播放| av中文一区二区三区| 久久精品国产2020观看福利| 一呦二呦三呦精品国产| 91丝袜美腿高跟国产极品老师| 欧美成人精品在线播放| 色综合久久久| 18欧美乱大交hd1984| 国产精品亚洲激情| 俺要去色综合狠狠| 欧美色手机在线观看| 99riav在线| 韩国成人福利片在线播放| 色老头一区二区三区| 国产精品麻豆| 一区二区不卡在线视频 午夜欧美不卡在| 国产欧美亚洲视频| 欧美在线观看天堂一区二区三区| 欧美男人的天堂一二区| 麻豆传媒视频在线观看免费| 麻豆国产精品官网| 九九热这里只有精品6| 麻豆一区二区麻豆免费观看| 欧美日韩亚洲一区二区| 精品亚洲综合| 狠狠色丁香婷综合久久| 欧美老少做受xxxx高潮| 成人h动漫免费观看网站| 午夜亚洲国产au精品一区二区| 国产在线电影| 免费观看日韩av| 欧美激情视频三区| 亚洲免费观看高清完整版在线观| 欧美图区在线视频| 国产亚av手机在线观看| 欧美国产97人人爽人人喊| 麻豆免费网站| 日韩国产欧美视频| 欧美巨乳美女视频| 国产精品亚洲人成在99www| 欧美一二区视频| 欧美精选视频一区二区| 亚洲一线二线三线视频| 日本免费视频在线观看| 国产偷国产偷精品高清尤物 | 国产成人一区二区三区小说| **女人18毛片一区二区| 亚洲精品一区av在线播放| 欧美h版在线观看| 欧美亚日韩国产aⅴ精品中极品| 欧美四级在线| 亚洲情趣在线观看| 桃花色综合影院| 岛国一区二区三区| 激情av网站| 国产成a人无v码亚洲福利| 国产人妖伪娘一区91| 玖玖在线精品| 欧美在线中文字幕| 亚洲少妇在线| 91精品国产91久久| 亚洲一区欧美二区| 欧美在线欧美在线| 玖玖玖国产精品| 国产精品国语对白| 蜜乳av一区二区| av网站免费观看| 极品少妇一区二区三区精品视频| 国产精品久久久久久久天堂| 人人狠狠综合久久亚洲| 成年人视频在线| av成人免费在线观看| 成人77777| 一区二区三区在线观看国产| 欧美人与性动交α欧美精品济南到 |