你是不是遇到過這種情況:網站上線幾個月,谷歌搜索上還是搜不到你的產品頁?或者明明每天有人更新內容,但流量就是不動?
這篇文章就是來解決這個問題的——幫你檢查一個常被忽視但影響巨大的文件:robots.txt(一個控制搜索引擎抓取權限的文本文件)。它一行寫錯,就可能把整個網站擋在搜索引擎門外。
適合人羣:外貿公司老闆、運營、業務人員,尤其是剛建站或發現收錄(搜索引擎發現並存儲你網頁的過程)異常的人。讀完你能:
- 知道 robots.txt 到底在管什麼
- 識別哪些規則會“誤傷”重要頁面
- 用清單檢查自己的文件有沒有問題
- 快速修復並驗證效果
誤區一:robots.txt 就是用來“保護隱私”的
很多外貿站寫 robots.txt 是爲了不讓別人看到“後臺”或“內部數據”,比如 /admin/、/backup/ 目錄。這沒錯,但最大的錯誤是:把不該禁的也禁了。
爲什麼錯?因爲 robots.txt 的“禁止”不是“刪除”,而是告訴搜索引擎“別來抓這裏”。如果你不小心禁了產品頁、分類頁、圖片目錄,搜索引擎就永遠看不到這些內容,自然不會收錄(搜索引擎發現並存儲你網頁的過程)。
判斷標準:如果某個頁面是你希望客戶在谷歌上搜到的(比如產品詳情、公司介紹、服務頁面),它就不應該出現在 robots.txt 的“禁止”列表裏。
正確做法:只禁止真正需要保密的路徑,比如:
- 後臺管理目錄(如 /admin/、/login/)
- 測試或開發環境(如 /test/、/staging/)
- 臨時備份文件(如 /backup/、/temp/)
- 用戶上傳的敏感文件(如 /uploads/private/)
千萬別禁:
- 產品目錄(如 /products/、/item/)
- 分類頁(如 /category/、/industry/)
- 圖片目錄(如 /images/、/uploads/)
- 新聞或博客頁(如 /news/、/blog/)
- sitemap.xml(搜索引擎用來發現你所有頁面的地圖文件)
誤區二:寫“Disallow: /” 就等於“全站禁止”
有人爲了“安全”,直接寫 Disallow: /,意思是“禁止抓取整個網站”。這等於告訴谷歌:別來,這裏啥都沒有。
爲什麼錯?因爲搜索引擎(如谷歌)看到這條規則後,根本不會抓取任何頁面,自然也不會收錄(搜索引擎發現並存儲你網頁的過程)或索引。你的網站就徹底“隱形”了。
判斷標準:如果你的 robots.txt 文件裏有 Disallow: /,且沒有其他 Allow: 規則,那你的網站大概率不會被收錄。
正確做法:
- 不要寫
Disallow: /,除非你明確不想被任何搜索引擎發現(比如內部測試站) - 如果需要部分開放,用
Allow:明確指定可抓取路徑,例如:
User-agent: * Disallow: /admin/ Disallow: /backup/ Allow: /
這樣既保護了敏感目錄,又允許搜索引擎抓取其他內容。
誤區三:robots.txt 寫錯了也沒關係,改完就行
有人覺得:“反正只是個文本文件,改完保存就行,搜索引擎馬上就能發現。”
爲什麼錯?因爲搜索引擎不會實時抓取 robots.txt。它可能幾天、幾周纔來一次。如果你改完文件後沒主動通知,搜索引擎可能還在用舊的規則,繼續忽略你的頁面。
判斷標準:如果你改了 robots.txt 超過一週,但谷歌搜索上還是看不到新頁面,很可能搜索引擎還沒重新抓取你的 robots.txt。
正確做法:
- 修改 robots.txt 文件
- 登錄谷歌搜索控制檯(Google Search Console),提交新的 robots.txt 文件
- 使用“URL 檢查”工具,手動請求抓取幾個關鍵頁面
- 等待 24-72 小時,觀察抓取狀態
這樣能確保搜索引擎儘快發現並應用新規則。
馬上能做什麼?檢查你的 robots.txt 文件
下面這個清單,你可以直接對照操作:
- 打開你的網站,訪問
https://你的域名.com/robots.txt - 檢查是否有
Disallow: /?如果有,刪除或修改 - 檢查是否禁了產品、分類、圖片、博客等關鍵目錄?如果有,刪除對應行
- 檢查是否允許了 sitemap.xml?確保有類似
Sitemap: https://你的域名.com/sitemap.xml的行 - 檢查是否只禁了真正需要保密的目錄(如 /admin/、/backup/)
- 保存後,去谷歌搜索控制檯提交併請求抓取
關鍵提示:robots.txt 是“建議”,不是“強制”。有些爬蟲可能不遵守,但主流搜索引擎(如谷歌、必應)都會尊重。所以,寫對規則,才能確保主流流量來源正常。
FAQ
robots.txt 和 .htaccess 有什麼區別?
robots.txt 是告訴搜索引擎“別抓這裏”,而 .htaccess 是服務器配置文件,可以真正禁止訪問(比如密碼保護)。前者影響收錄(搜索引擎發現並存儲你網頁的過程),後者影響所有人訪問。
如果我不寫 robots.txt,網站會怎樣?
不寫也沒問題。搜索引擎會默認抓取所有頁面。但如果你有特殊目錄需要保密,建議寫一個,明確哪些不該被抓取。
寫錯了 robots.txt,多久能恢復?
通常 24-72 小時,但取決於搜索引擎的抓取頻率。建議改完後主動在谷歌搜索控制檯提交,能加快恢復。
robots.txt 會影響廣告(SEM)嗎?
不會。robots.txt 隻影響自然搜索(SEO),不影響廣告(SEM,即付費推廣)。廣告是通過廣告平臺投放的,和搜索引擎抓取無關。
爲什麼我禁了 /uploads/,但圖片還在谷歌上?
因爲圖片可能通過其他鏈接(如產品頁、博客)被索引。robots.txt 只阻止抓取,不阻止索引。如果想徹底刪除,需要在谷歌搜索控制檯提交刪除請求。
robots.txt 裏能寫中文嗎?
不能。必須用英文和英文路徑。中文路徑要轉成英文或拼音,否則規則無效。
延伸閱讀
- Bing Webmaster Tools 怎麼用:驗證站點、提交 Sitemap、診斷收錄的實操清單 · 2026-01-04 · 12分鐘
- IndexNow 是什麼:讓 Bing 更快收錄的原理、適用場景與配置步驟 · 2026-01-04 · 11分鐘
- ChatGPT 搜索收錄怎麼做:OAI-SearchBot 會抓什麼?站點要準備哪些頁面 · 2025-12-30 · 10分鐘
- 2025-12 Google 核心更新後怎麼排查:內容質量、內鏈、索引與抓取的實操清單 · 2025-12-26 · 12分鐘
- Google 不收錄/收錄很慢?外貿站排查清單(從最快的開始) · 2025-12-02 · 9分鐘
- Screaming Frog 新手教程:抓全站 404、重定向鏈、標題重複、Canonical 的檢查路徑 · 2025-12-29 · 13分鐘