Google 索引出包?GSC 索引常見問題懶人包,教你一步步解決!
Google Search Console(簡稱 GSC)是網站經營者的好幫手,除了能夠檢視關鍵字的平均排名以及曝光率、點閱率外,也能幫我們了解網站是否有順利被 Google 收錄。
但有時候,我們辛辛苦苦寫的頁面卻沒被索引,想了解索引問題,但卻不知道這些技術名詞分別是什麼意思?
為了解決你的困擾,本篇文章會帶你認識 GSC 報告中最常見的索引問題,逐一解釋為什麼會發生、怎麼解決,還會附上小提醒幫你避免再掉坑!
GSC 索引問題 1:頁面會重新導向
問題說明
這個問題就像你請朋友來家裡作客,給了他一串地址,結果打開地址,卻發現那個地址會自動跳轉到另一個地方。
這時候,Google 爬蟲和訪客就會疑惑,我要去的地方到底是 A 地址還是 B 地址呢?當點擊到 A 地址的時候最會被「自動轉送」,爬蟲和訪客只好前往你跳轉後的 B 地址(因為 A 地址沒辦法前往)。
也就是說,爬蟲和訪客可能就不會記住你原本的那一頁,而去索引和查看跳轉後的頁面。
解決方法
-
確認你的頁面是否有誤設置 301 或 302 轉址,如果誤設置,請移除轉址設定。
-
Sitemap 裡的網址建議更改成「最終版本」的網址(也就是跳轉後的那一頁)等待 GSC 重新收錄。
延伸閱讀:301 / 302 轉址是什麼?
小提醒:如果你網站曾改過網址結構,記得同步更新 sitemap 和內部連結,否則 Google 爬蟲會像迷路的郵差找不到門!
延伸閱讀:Sitemap 是什麼
GSC 索引問題 2:找不到(404)
問題說明
相信大家都知道 404 的意思,也就是資料無法讀取,當 Google 嘗試抓取某個頁面,結果是「找不到」,就會顯示 404,沒有任何資料讓使用者以及爬蟲讀取。
通常都會是某個頁面已經沒有資料,但網站地圖中還是保留連結的部分,讓爬蟲讀取到連結,才會有此問題。
解決方法
-
用 GSC 的報告找出是誰連到了這個 404 頁面(內部連結?sitemap?還是外部網站?)。
-
如果這頁應該存在,那就恢復它;如果真的刪除了,建議設 301 導向到相關內容。
-
移除 sitemap 裡已失效的頁面連結。
小提醒:偶爾出現幾個 404 沒關係,但如果網站上滿滿都是錯誤頁,Google 會懷疑你是不是忘記打掃網站囉~
GSC 索引問題 3:遭到「noindex 排除」
問題說明
這表示你有對該頁使用了 noindex 設定,也就是你自己跟 Google 說「這頁不要收錄喔!」通常是出現在 meta 標籤裡的設定。
解決方法
-
查看該頁原始碼,是否有 <meta name="robots" content="noindex">。
-
如果你希望這頁被索引,就移除這段設定,然後重新提交該頁給 Google。
小提醒:像是登入頁、購物車頁這種不需要曝光的頁面,本來就該使用 noindex,這是沒問題的。但如果是你的主打商品頁出現 noindex,那就要趕快修改程式碼了!
GSC 索引問題 4:已找到,目前尚未建立索引
問題說明
這表示 Google 已經知道你這頁的存在(可能來自 sitemap或是自行提交),但它還沒決定要不要派爬蟲過來看這個頁面,將其顯示到結果頁面上。
有可能是初步的評估,Google 覺得這個頁面的價值不高,或者是你有太多重複的內容,或者這個頁面是沒有顯示在其他頁面上的「孤島連結」,讓 Google 不清楚這頁的重要性。
解決方法
-
確認內容是否原創、有價值、是否過於重複。
-
加強內部連結,讓其他頁面指向這頁,提高它的重要性。
-
可以使用 GSC 的「網址檢查工具」主動提交索引請求。
小提醒:這種情況對新網站來說很常見,不一定是錯誤,有時只是 Google 還在評估要不要讓頁面顯示在搜尋結果頁面上而已。
如果長時間沒有被收錄,可以嘗試重新下架後,使用新的連結嘗試索引看看。
GSC 索引問題 5:已檢索 – 目前尚未建立索引
問題說明
和上一個情況類似,這裡的差別是 Google 爬蟲「真的來看過了」,但看完還是不想收錄。
可能是內容太薄、太相似,讓 Google 覺得「先跳過好了」,就沒有把這頁放在搜尋結果頁面上。
解決方法
-
檢查頁面是否內容太短,或者是沒什麼新意。
-
確認頁面技術沒問題(例如 JavaScript 沒擋住文字內容等等)。
-
增加這頁被其他頁面連結的機會,不管是內部連結或是外部連結,讓 Google 知道這個頁面的重要性。
小提醒:遇到這種情況通常代表內容要再優化、再打磨,讓它更值得被 Google 看見。
GSC 索引問題 6:伺服器錯誤(5XX)
問題說明
這類錯誤代表 Googlebot 嘗試存取網頁時,伺服器回應了 5xx 的錯誤訊息。也就是說:Google 想來看,卻被擋在門外。常見原因包括:
-
程式出錯,例如 PHP、Python 等後端語言執行失敗
-
伺服器設定異常,像是 Apache/Nginx 設定錯誤
-
主機資源不足,流量一多就撐不住
-
資料庫連不上,或查詢出現錯誤
解決方法
-
回頭看最近的變動:如果剛更新了程式或佈署新功能,先檢查是否導致錯誤。
-
找主機商 / 網頁設計公司幫忙:若是主機問題或你找不到問題點,別客氣,直接聯絡主機商請他們查看伺服器狀態與錯誤日誌。
-
檢查伺服器資源:確認 CPU、記憶體、磁碟空間是否充足,如果經常爆量,考慮升級方案。
-
修好後記得請 Google 回來看看:錯誤排除後,到 GSC 提交「請求重新抓取」,讓 Googlebot 再次檢查這頁。
小提醒:5xx 問題若持續出現,不但影響單一頁面,也可能傷害整個網站的排名與信任度,請優先處理。
GSC 索引問題 7:替代頁面(有適當的標準標記)
問題說明
這其實是個「沒問題的問題」!代表你的網站有好幾個內容相近的頁面,但你有正確設置 rel="canonical" 告訴 Google 哪一頁是主頁面。
解決方法
-
不需要特別處理,只要 canonical 設定正確就好。
-
定期檢查一下,確保每個類似頁面的 canonical 標籤都正確指向你想要 Google 索引的那一頁。
小提醒:別擔心,出現此問題,反而代表你有做好 SEO 基礎功,給自己一個掌聲!
GSC 索引問題 8:這是重複網頁;使用者未選取標準網頁
問題說明
Google 發現你有幾個幾乎一樣的頁面,但你沒有指定誰才是「正牌代表」。Google 就會感到困惑:到底哪一頁才是主角?
因為有太多重複頁面,Google 當然不可能會把這些重複的內容通通放上去,因此可能會通通打掉,或者是隨便選一頁收錄,其他頁面通通標上「這是重複網頁;使用者未選取標準網頁」問題。
最常見的情況就是電商網站有很多同顏色的產品,每一個顏色選項都被列為一個網址,就可能產生此問題。
解決方法
-
檢查內容是否重複,例如帶參數的頁面(例如 ?ref=fb)或排序頁。
-
為這些頁加上 <link rel="canonical" href="你要的主頁面網址">,明確告訴 Google:這頁才是正確的版本。
小提醒:沒有 canonical,就像你在開派對卻不說誰是主角,還全都穿一樣的衣服,Google 自然會搞不清楚主角是誰,只好隨便把一個人拉上台應付。
GSC 索引問題 9:這是重複網頁;Google 選擇的標準網頁和使用者的選擇不同
問題說明
這代表你知道有重複頁面問題,也把主要頁面設置好 canonical 標籤,想讓某頁當主頁,但 Google 卻認為另一頁比較適合當主頁。
兩邊想法不同,就會出現這個訊息。
解決方法
-
確認你設置為 canonical 的頁面是否真的內容優質、有差異性。
-
加強內部連結與其他權重,讓 Google 感覺你想推的頁面比較重要。
-
重新提交 sitemap 或透過網址檢查工具加強提示。
小提醒:Google 不總是對的!遇到這種情況可以溝通調整,但也要檢查你自己設定是否合理。
GSC 索引問題 10:網址遭到 robots.txt 封鎖
問題說明
這代表你網站的某些網址在 robots.txt 檔案中被禁止 Googlebot 存取,因此無法被索引。
Google 爬蟲雖然知道這個網址存在,但因為被擋住,無法進一步抓取內容、建立索引。
有些網址,像是購物車、會員後台、修改後台等等,有時候我們會下「noindex」標記,有時候會在 robots.txt 的文件內部請 Google 不要爬取這些頁面的內容。
這兩者的差別在於:
-
noindex:告訴 Google:「你可以抓取這個頁面,但請不要把它放進索引。」適合用在你不想讓該頁出現在搜尋結果中,但還是想讓 Google 爬一爬看看內容(例如分析連結、權重傳遞等)像是文章分類頁面、商品分類頁面等等。
-
robots.txt:告訴 Google:「這個頁面你連看都不要看,直接跳過。」適合完全不想被爬取的頁面,例如私密頁、購物車、帳號後台等等。
兩者只能擇一使用,這是因為 robots.txt 封鎖優先於 noindex 的效果,等於你貼的 noindex 是 Google 永遠看不到的!
那如果我想要被收錄的頁面,出現「網址遭到 robots.txt 封鎖」問題該怎麼辦呢?
解決方法
-
檢查 robots.txt 是否真的需要封鎖該網址。有時候是誤設或舊設定沒更新,造成不該被封鎖的頁面被擋。
-
如果該頁面應該被索引,就需要修改 robots.txt 移除對應的封鎖規則(如 Disallow: /example-page/)。
-
確認頁面沒有同時使用 noindex 標籤,避免出現互相矛盾的訊號。
-
修改完 robots.txt 後,重新提交 sitemap 或使用網址檢查工具讓 Google 重新抓取。
小提醒:robots.txt 是非常好用的工具,但也容易設錯!有時候一行設定就讓整個網站被封鎖了。定期檢查你的封鎖規則,尤其在搬站、改版或重新導流的時候更要小心。
修改錯誤後,怎麼請求 Google 優先爬取網頁?
當你修正了像是 canonical 錯誤、robots.txt 設定、或 meta 標籤後,Google 不會立刻知道你改了什麼。
它什麼時候再來爬、再更新索引,是不確定的。但你可以主動出手,加快這個流程!
這邊提供幾種方法,讓 Google 更快發現你修改過的頁面:
1. 使用網址檢查工具(URL Inspection Tool)
到 Google Search Console(GSC)裡輸入你的網址
點選「請求建立索引」
Google 會先檢查目前的狀態,再決定是否重新排進爬蟲排程
這是最直接、最快的方法,推薦優先使用!
2. 重新提交 sitemap
如果你修改的頁面不只一個(例如整個目錄、很多文章),可以重新上傳 sitemap
在 GSC「網站地圖」功能中重新送出 sitemap.xml
Google 會知道有新的更新,來爬整批頁面
3. 加強內部連結與外部連結
如果頁面本身很難被 Googlebot 找到,加一點內部連結(像是從首頁、熱門文章、導航列)可以吸引爬蟲目光
有外部網站連回你的頁面,也是一種「嘿這裡有更新」的訊號
4. 保持網站整體健康
Googlebot 資源有限,如果你網站速度慢、錯誤多,爬蟲可能會優先跳過你
維持網站良好結構、速度和無技術錯誤,也能提高重新抓取的機會
提交之後不一定馬上就會更新搜尋結果,但通常在幾天內會完成爬取。太頻繁地提交也不會加快速度,反而可能被忽略。
小結:別怕,GSC 是你的朋友不是敵人!
看到一堆索引問題不要慌,這些訊息其實是 Google 在跟你溝通網站狀態。如果你願意定期檢查、調整,就能讓網站越來越健康、越容易被收錄。
希望這篇懶人包能幫你破除索引迷思,幫助你解決問題!