中文成人无字幕乱码精品_成人免费看电影_欧美日韩在线视频一区二区_麻豆久久精品_日本不卡免费新一二三区_伊人网一区

  • IDC銷售:020-66849165/66849090/66849088
  • 云服務銷售:020-66849108/9091 | 客服(備案,域名,虛機,郵箱):020-66849000-2

登錄 | 會員注冊 | 控制面板 | 幫助中心 | 購物車 | 舉報中心

? ? 域名活動
幫助中心FAQ

索引限制文件robots.txt使用說明

 

一、robots.txt的作用

robots.txt的作用就是告訴搜索引擎哪些內容不要索引,一般為了實現如下目的而使用:

1)禁止搜索引擎索引系統文件,后臺文件,模板文件,背景圖片。這樣做一方面可以防止搜索引擎收錄很多無關內容,另外可以降低搜索引擎蜘蛛抓取網站時消耗的資源

2)禁止搜索引擎收錄需要保密的文件,或者是隱私內容。不過值得注意的是,robots.txt只能告訴搜索引擎不收錄這些內容,但是并不能防止這些內容被訪問,如果是重要信息最好是設置密碼。

3)網址規范化方面的應用。啟用偽靜態的網站,一般同時存在至少兩套網址,一套是rewrite之后的靜態地址,一套是原始的動態地址,如果不限制,搜索引擎可能會收錄大量的重復內容。為了方式這種情況,可以將動態格式的地址禁止索引。

二、robots.txt的語法:

       我們要在虛擬空間的網站目錄(Windows虛擬主機在/htdocs下,Linux虛擬主機在根目錄下)建立robots.txt文件,里面包含的語法如下:

User-agent: 該項的值用于描述搜索引擎蜘蛛的名字。如果該項的值設為*,則該協議對任何機器人均有效。

Disallow: 該項的值用于描述不希望被訪問到的一個URL,一個目錄或者整個網站。以Disallow 開頭的URL 均不會被搜索引擎蜘蛛訪問到。任何一條Disallow 記錄為空,說明該網站的所有部分都允許被訪問。

三、robots.txt使用例子:

1. 禁止所有搜索引擎訪問網站的任何部分 

  User-agent: * 

Disallow: / 

 

2. 允許所有的robots訪問 (或者也可以建一個空文件 “/robots.txt” file) 

  User-agent: * 

Allow: 

 

3. 禁止某個搜索引擎的訪問(禁止BaiDuSpider

  User-agent: BaiDuSpider 

Disallow: / 

 

4. 允許某個搜索引擎的訪問 

  User-agent: Baiduspider 

allow:/ 

 

5.禁止二個目錄搜索引擎訪問

    User-agent: * 

Disallow: /admin/

Disallow: /install/

 

6. 僅允許Baiduspider以及Googlebot訪問

User-agent: Baiduspider

Allow: /

User-agent: Googlebot

Allow: /

User-agent: *

Disallow: /

 

7. 禁止百度搜索引擎抓取你網站上的所有圖片

User-agent: Baiduspider

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

四、robots.txt使用技巧

1)每當用戶試圖訪問某個不存在的URL時,服務器都會在日志中記錄404錯誤(無法找到文件)。每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器也將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt

2)網站管理員必須使蜘蛛程序遠離某些服務器上的目錄——保證服務器性能。比如:大多數網站服務器都有程序儲存在“htdocs”目錄下,因此在 robots.txt文件中加入“Disallow: / htdocs”是個好主意,這樣能夠避免將所有程序文件被蜘蛛索引,可以節省服務器資源。一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。

下面是VeryCMS里的robots.txt文件:

 User-agent: *

Disallow: /admin/ 后臺管理文件

Disallow: /require/ 程序文件

Disallow: /attachment/ 附件

Disallow: /images/ 圖片

Disallow: /data/ 數據庫文件

Disallow: /template/ 模板文件

Disallow: /css/ 樣式表文件

Disallow: /lang/ 編碼文件

Disallow: /script/ 腳本文件

3)如果你的網站是動態網頁,并且你為這些動態網頁創建了靜態副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里設置避免動態網頁被蜘蛛索引,以保證這些網頁不會被視為含重復內容。

4robots.txt文件里還可以直接包括在sitemap文件的鏈接。就像這樣:

Sitemap: http://www.***.com/sitemap.xml (此處請填寫完整URL,如果按習慣填寫Sitemap: /sitemap.xml,提交后會提示:檢測到無效的 Sitemap 網址;語法錯誤)

目前對此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。而中文搜索引擎公司,顯然不在這個圈子內。這樣做的好處就是,站長不用到每個搜索引擎的站長工具或者相似的站長部分,去提交自己的sitemap 文件,搜索引擎的蜘蛛自己就會抓取robots.txt文件,讀取其中的sitemap路徑,接著抓取其中相鏈接的網頁。

5)合理使用robots.txt文件還能避免訪問時出錯。比如,不能讓搜索者直接進入購物車頁面。因為沒有理由使購物車被收錄,所以你可以在robots.txt文件里設置來阻止搜索者直接進入購物車頁面。

五、robots.txt使用誤區

誤區一:我網站上所有的文件都需要被蜘蛛抓取,那我就沒必要添加robots.txt文件了。反正如果該文件不存在,所有的搜索蜘蛛將默認能夠訪問網站上所有沒有被口令保護的頁面。

每當用戶試圖訪問某個不存在的URL時,服務器都會在日志中記錄404錯誤文件(無法找到文件)。每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器也將在日志中記錄一條404錯誤文件,所以你應該在網站中添加一個robots.txt

 

誤區二:在robots.txt文件中設置所有的文件都可以被搜索蜘蛛抓取,這樣可以增加網站的收錄率。

網站中的腳本程序、樣式表等文件即使被蜘蛛收錄,也不會增加網站的收錄率,還只會占用服務器存儲空間。因此必須在robots.txt文件里設置不要讓搜索蜘蛛索引腳本程序、樣式表等文件,具體哪些文件需要排除,在robots.txt使用技巧一文中有詳細介紹。

 

誤區三:搜索蜘蛛抓取網頁太浪費服務器資源,在robots.txt文件中設置所有的搜索蜘蛛都不能抓取全部的網頁。

如果這樣的話,會導致整個網站不能被搜索引擎收錄。

主站蜘蛛池模板: 成人精品鲁一区一区二区 | 久久久综合亚洲91久久98 | 国产一区二区三区在线视频 | 神马久久久久久 | 久久久久极品 | 成年人在线观看 | 最新版天堂资源中文在线 | 欧美一区二区视频 | 一级毛片免费网站 | 欧美精品一级 | 欧美日韩国产在线观看 | 久久精品国产亚洲blacked | 国产日韩欧美在线 | 亚洲精品一区二区三区中文字幕 | 亚洲国产视频网站 | 亚洲成人在线观看视频 | 日本一区二区在线视频 | 国产一区在线看 | 色综合天天综合网国产成人网 | 99精品国产一区二区 | 91精品国产aⅴ | 欧美日韩免费 | 国产成人午夜视频 | 日韩av一区三区 | av一级在线观看 | 日韩精品影院 | 日韩在线无| 久久亚洲精品国产一区 | 国产在线国偷精品产拍免费观看 | 久久久久久亚洲精品视频 | 亚洲jizzjizz日本少妇 | 第一色站| 欧美视频在线播放 | 久久久91精品国产一区二区 | 九色在线 | 亚洲国产成人在线视频 | 欧美色v| 国产无套精品久久久久久 | 亚洲a网 | 91国内| 黄色毛片网站在线观看 |