SEO 與規範

robots.txt 是什麼?SEO 的第一道守門員

robots.txt 並不會直接提升排名,但它能避免搜尋引擎浪費資源、誤爬不該看的頁面,是 SEO 中最重要的基礎設定之一。

robots.txt 是什麼?

robots.txt 就是在網站門口貼的一張告示牌,告訴搜尋引擎:哪些地方可以看、哪些地方不要進來。

它不是用來「幫你加分」的工具,而是負責避免被扣分、避免浪費搜尋引擎資源。 在 SEO 的世界裡,它更像是守門員,而不是得分手。


先不要想技術,先想像一個很生活的場景

把你的網站想成一棟大樓。

這棟樓裡面可能有對外開放的大廳與展示空間,也會有只給內部人員使用的倉庫、管線間與管理室。對一般訪客來說,他們只需要看到展示的部分;對搜尋引擎也是一樣。

搜尋引擎每天都會派出爬蟲,像巡邏員一樣拜訪你的網站。robots.txt 的角色,就是貼在門口的告示牌,上面寫著哪些區域歡迎參觀,哪些區域請勿進入。

這張告示牌並不會影響大樓的美觀或價值,但它能避免巡邏員走錯地方。


robots.txt 是什麼?為什麼位置這麼重要

robots.txt 是一個純文字檔案,而且一定要放在網站最外層的根目錄

https://example.com/robots.txt

對搜尋引擎來說,造訪一個網站時的第一個動作永遠是:

  1. 抵達網域
  2. 讀取 robots.txt
  3. 再決定要不要爬、要爬哪些路徑

也就是說,robots.txt 是整個 SEO 流程中的第一關卡。如果這一關就給錯訊號,後面的內容再好,也可能根本沒被正確看到。


robots.txt 到底在控制什麼?

新手最容易搞混的一點是:robots.txt 不是在控制「收不收錄」,而是在控制「爬不爬」

簡單整理可以這樣理解:

robots.txt 可以告訴搜尋引擎哪些路徑不要來抓資料,但它並不能直接命令搜尋引擎「這一頁不准出現在搜尋結果」。排名高低,更完全不是它的工作範圍。

你可以把 robots.txt 想成交通管制,而不是成績開關。


一個最基本、最常見的 robots.txt 範例

User-agent: *
Disallow: /admin
Disallow: /api

這段設定的意思是:

對所有搜尋引擎爬蟲來說,請不要進入 /admin/api 這兩個路徑。

這類路徑通常是後台、系統或資料接口,對搜尋使用者沒有實際價值,也不該被公開索引。


為什麼「完全不設定 robots.txt」反而有風險?

很多人以為沒設定就是「全部開放」,但實際上,這樣反而容易讓搜尋引擎把力氣用錯地方。

第一個問題是爬蟲資源浪費。搜尋引擎會分配給每個網站一個有限的「爬蟲預算」。如果它把時間花在 API、測試頁或草稿頁上,真正重要的內容反而可能爬不完。

第二個問題是不該曝光的頁面被看到。像是後台登入頁、測試環境、篩選組合頁,這些頁面對使用者沒有幫助,還可能被視為低品質內容。

第三個問題是整體 SEO 訊號被稀釋。當搜尋引擎看到大量重複頁、空頁或系統頁時,會降低對網站整體品質的信任程度。

robots.txt 在這裡扮演的角色,就是第一道「剪枝工具」。


一個很重要的觀念:robots.txt 不是安全機制

robots.txt 只是一張告示牌,不是上鎖的門。

它的意思是「請不要看」,而不是「你不能看」。只要有人知道網址,仍然可以直接打開該頁面。

因此,任何機密資料、管理介面或敏感資訊,都不應該只靠 robots.txt 來保護,而必須使用真正的權限控管或驗證機制。


robots.txt 和 canonical 的完美對照

如果你已經理解 canonical,那 robots.txt 其實很好對照理解。

robots.txt 處理的是「哪些地方不該被爬」,canonical 處理的是「哪些內容才是正版」。前者發生在爬取之前,後者發生在搜尋引擎分析內容時。

它們解決的是不同層級的問題,彼此並不衝突,而是互補。


為什麼在 Nuxt 或前端專案中特別重要?

前端框架非常容易自動產生大量「對使用者沒意義,但對爬蟲很有吸引力」的路徑,例如建置用資源、內部資料檔或各種參數組合網址。

如果沒有 robots.txt 先做基本控管,搜尋引擎往往會把注意力放在這些頁面上,而忽略真正的內容頁。

在內容型網站或教學部落格中,這一點尤其明顯。

結論

如果你現在只記得一句話就好:

robots.txt 的角色不是讓排名變高,而是避免搜尋引擎「看錯地方、看太多、看不該看的」。

只要把它設定好,你的內容就更有機會被用在「對的地方」。


參考資料

  1. Google Search Central – Robots.txt 規範
    https://developers.google.com/search/docs/crawling-indexing/robots/intro
  2. Moz – Robots.txt Beginner’s Guide
    https://moz.com/learn/seo/robotstxt
  3. Ahrefs – Robots.txt SEO Best Practices
    https://ahrefs.com/blog/robots-txt/

Copyright © 2026 StudyWithWoody. All rights reserved.