![]() | 主題: | 設定 robots.txt |
![]() | ||
![]() | 工具: | Notepad |
![]() | ||
![]() | 實例: | 本站的 robots.txt |
![]() |
![]() |
內容:
|
robots.txt 是用來告訴搜尋引擎哪些地方不可以拿去做全文檢索資料庫。 資源自動收集 (Robot) 是搜尋引擎中負責資料收集的軟體,又稱為 Spider、或Crawler。他可以自動在設定的期限內定時自各網站收集網頁資料,而且通常是由一些預定的起始網站開始遊歷其所連結的網站,如此反覆不斷 (recursive) 的串連收集。 |
![]() |
![]() |
步驟:
|
|
![]() |
![]() |
編碼:
|
robots.txt 樣本:
例:設定所有 robot 不能夠收集 /tmp/ 和 /download/ 目錄中的資料。
例:設定所有 robot 不能夠收集 etc.htm 和 /index/work.html 中的資料。
例:設定所有 robot 不能夠收集所有網頁資料。
例:設定 Google 不能夠收集 /tmp/ 目錄中的資料。
例:設定 Google 和 Excite 不能夠收集 /tmp/ 和 /index/work.html 目錄中的資料。
對應表:
|