【Search Central Live Deep Dive】Day2:索引才是王道!技術 SEO × JavaScript × 多語系策略全攻略|awoo 活動實記

Search Central Live Deep Dive Day2:索引才是王道!技術 SEO × JavaScript × 多語系策略全攻略|awoo 活動實記

Search Central Live Deep Dive 2025 現場直擊!

awoo 團隊現身泰國曼谷,參加亞太地區首度舉辦的 Search Central Live Deep Dive!這場為期三天的技術研討會,匯聚來自各地的搜尋專家與開發者,共同深入探索 Google 搜尋引擎的底層運作、AI 結合搜尋的最新應用、內容策略與技術 SEO 等重要議題。

💡 如果你還沒看過 Day1 的精彩摘要【Search Central Live Deep Dive】Day1:SEO is Dead?AI 搜尋時代的 SEO 新解讀!|awoo 活動實記

建議可以先看第一篇文章,我們整理了 AI 搜尋時代的新 SEO 觀念與實戰策略!本系列文章將依照每日主題,整理 awoo 第一手觀察與重點筆記。今天是第 2 天,主題聚焦在「深入技術 SEO 現場:解構索引流程、破解 JavaScript 陷阱,掌握多語系與內容優化關鍵技術!」

Search Central Live 是什麼?

Search Central Live 是 Google 搜尋中心團隊主辦的實體活動,專為網站經營者、開發人員與 SEO 專家設計。而 Search Central Live Deep Dive 則是「升級版」的三天進階研討會,內容更廣、時間更長,專為想深入理解搜尋背後機制的與會者而設。這場活動最大的特色,就是從原本的半天或幾小時,延伸為三天完整學習行程,活動的亮點包含:

  • Google 官方團隊與社群專家的深度演講
  • 真實案例分享 × 技術實作工作坊
  • Search Console、Google Trends 等工具的應用教學
  • 豐富的現場互動與跨國交流機會

對於關注搜尋技術與自然流量成長的 awoo 團隊來說,這是與全球 SEO 最前線同步的寶貴機會!awoo 實際參與本次活動,以下為我們從現場帶回的第一手觀察與筆記整理。

Search Central Live Deep Dive 第 2 天主題摘要

  • 索引才是王道,能不能被收錄比排名更重要
  • JavaScript 網站並非死路,只要正確處理渲染與連結
  • 多語系策略重在 hreflang 與 sitemap 配合
  • Google Trends API 正式開放試用申請!

今日主題與逐場精華筆記(依時間軸整理)

第二天開場:歡迎…來到索引日!(10:15)

今天的開場不囉嗦,Google 搜尋團隊一上台就進入快問快答模式!雖然只有短短幾題,但每題都打中技術 SEO 最常遇到的疑慮,今天不只是學理,是真刀真槍的技術交流日!

Q:其他 Chatbot 會遵守 robots.txt 嗎?
A:不一定,Google 不能保證別家怎麼做,但從技術角度來說,robots.txt 本身就是「自願遵守」的協定。

Q:圖片大小會影響檢索預算嗎?
A:不會,Google 的抓取預算是「以頁面為單位」來計算,而非依據每個資源的大小。但若圖片或影片太大,會造成抓取延遲、甚至排程暫停,直到某些大物件下載完成。

Q:Google 是否在抓取效率上偏好響應式(responsive)網站?
A:沒有偏好、也不特別辨別技術選擇。但如果使用 adaptive 或 dynamic rendering,往往會帶來更多 JavaScript、影像延遲與重建渲染成本。

Q:怎麼判斷自己的檢索預算是否用得好?
A:可以去 Search Console 的 Crawl Stats 報表查看兩個指標:

  1. 實際被抓取的 URL 數量 
  2. 「已找到 – 目前尚未建立索引」(discovered – not crawled)的項目數量。

如果後者偏高,可能代表站內內容太多 Google 檢索不完,或是內容品質太低 Google 不想抓,又或者是有 server/network error 阻礙抓取。

Google 搜尋團隊也補充,目前的索引流程比你想像得更複雜,不只是 bot 爬了就結束,還包含:

  1. HTML 解析
  2. JavaScript 渲染
  3. 重複頁面判定
  4. 重點內容擷取(Main Content)
  5. 信號擷取(Canonical、hreflang、meta tag 等)
  6. 最後才是索引與排名

HTML 如何被「解讀」?Google 怎麼拆解你的網頁(10:25)

這場從根本說明 Googlebot 是怎麼讀懂你網站的。不是你塞了關鍵字、加了內部連結就算完事,而是從 DOM 架構開始,Google 就在分析你網頁的每一層邏輯。Google 的解析方式大致如下:

  • <head> → 抓取 title、meta 等中繼資訊
  • <body> → 拆解 nav、main content 等內容區塊

講者強調 Main Content 超重要!Google 會試著找出頁面真正的主體內容。你如果沒正確標註,或者主要內容太稀薄、跟其他導覽列/側邊欄的資訊混在一起,可能會讓 Google 判斷失準。爬蟲在這階段會解析的資訊包含:

  • canonical 標籤
  • hreflang 語言對應
  • robots tag
  • 各類連結與 JS 資源是否可見

現場也提到 Googlebot 如何根據網址結構與 JS 執行權限,判斷哪些頁面能抓、哪些不能抓。

官方參考文件:適用於 Google 的連結最佳做法

有哪些方法可以控制索引?(10:30)

下一場則進入技術實作,聚焦於「你可以如何告訴 Google:這個不要抓、那個不能收錄」。Google 把整個搜尋流程分成兩階段:

1️⃣ Crawling(能不能被抓/檢索)

靠的是 robots.txt,可以阻擋 Googlebot 抓特定資料夾或資源(如 JS、CSS、圖片)。

2️⃣ Indexing(能不能被收錄/索引)

靠的是 <meta name=”robots”>,可以指定非常多細節規則:

指令名稱功能說明
noindex不要被索引/收錄
nofollow不傳遞連結權重
nosnippet在搜尋結果中不顯示文字摘要
data-nosnippet在搜尋結果中隱藏特定段落/文字
max-snippet限制文字摘要長度(-1 為無限制,0 表示不顯示)
max-image-preview控制圖片預覽尺寸(none / standard / large)
max-video-preview控制影片預覽秒數
noimageindex不讓圖片被收錄
no-translate不提供翻譯版本,避免翻譯失真
unavailable_after在特定時間後,於搜尋結果中移除頁面

現場提問

Q:可以用 JavaScript 加上 meta robots tag 嗎?
A:可以,但會花較長時間,因為需要等 JS 渲染完成後才能解析。

官方參考文件:Google 支援的 meta 標記和屬性

值得一提的是,Google 說明中提到 nofollow 是為了「to prevent passing on ranking credit」,也就是不傳遞權重。換句話說,傳說中的 link juice 真的是存在的!SEO 界討論多年的概念,這裡等於間接獲得了官方背書。

⚡Lightning Session C:渲染與 JavaScript

一開場就提到:就連Gary的網站也用了不少 JavaScript!所以「想辦法讓 JS 產生的內容能被爬蟲看見」,就是這場 Session 的核心。講者們用三個精彩實例,帶我們一口氣看懂 JS 與 SEO 的微妙關係:

1️⃣ 案例一:讓內容 SEO 與技術 SEO 一起合作

前陣子 SEO 界吵得很兇的:技術 SEO 重要?還是內容為王?
講者認為兩者不能分開看,而是要相輔相成。舉例來說,電商網站若只顧著寫一堆長文部落格,Google 可能會判斷這個網站「非交易導向」,反而拖累自然流量表現。一個成功的 SEO 策略,應從網站狀態診斷開始,搭配 On-page SEO(像是 Title/Description 優化)、內容配置與網站分類設計,一起佈局。

📌 講者觀點:「內容是主餐,技術是體質。」

講者資訊:https://www.linkedin.com/in/yisan-lee-4bb69b160/

2️⃣ 案例二:JavaScript 渲染而成網站的 SEO 怎麼救?

講者指出,高達 98.9% 的網站都使用 JavaScript,而 JavaScript 網站主要可分為兩類:

  1. 只是裝飾用途(如 WordPress、Shopify)
  2. 以 JavaScript 為主要核心生成內容(如 React、Vue.js)

他分享一個慘烈案例 :原本是靜態頁面,後來改為全 JS 渲染,結果 SEO 成效直接崩盤,因為爬蟲根本看不到主要內容。如果你的高品質網頁始終無法被收錄,極有可能與 JS 渲染有關。

如何檢查你的網站是否被 JavaScript 拖累?有三個自我檢查的方式:

  • 用瀏覽器的 View Page Source (檢查原始碼)看看主要內容是否存在
  • 用 Google Search Console 網址審查工具 & 索引報表
  • 若出現 「已檢索 – 目前尚未建立索引」、「轉址式 404 錯誤」就需注意!

常見 JavaScript 問題還包含:

  • 用 JS 動態產生 meta tag
  • robots.txt 阻擋 CSS/JS
  • 連結結構由 JS 動態生成
  • sitemap 太久沒更新
  • 沒有 HTML 格式的 canonical

📌 重點:JS 本身不是問題,問題在「你怎麼用」。

講者資訊:https://www.linkedin.com/in/wasin-mekkit?fromQR=1

3️⃣ 案例三:一場 JavaScript SEO 災難的逆轉啟示

講者 Loki Yan 分享一個經典案例:他經手一個用 Angular 架構的網站,因渲染後的內容無法被 Googlebot 正常擷取,導致網站流量接近掛零。

他如何拯救這個網站?解決過程包括使用開發者工具、Google Search Console、Screaming Frog 等工具查出問題,並進行一連串優化:

  • 簡化 JavaScript 結構
  • 移除沒用的 API 呼叫
  • 延遲載入非必要 JS
  • 將檔案分流、打包重整

成果:從幾乎沒有點擊到一年後達到 80 萬,兩年後更突破 2400 萬點擊。

📌 精彩金句:「你要學會 JS,然後就知道怎麼向工程師提問(challenge)。」

講者資訊: Xinyuan (Loki) Yan

什麼是 Google 友善的 JavaScript?(11:10)

Googlebot 究竟能不能「看懂」你用 JavaScript 建立的內容?
答案是:能看懂,但有條件。講者逐一點出幾個常見問題,這些都是讓 Googlebot「看不到你內容」的元兇

🚫 JS SEO 常見踩雷清單:

  • 內容沒出現在渲染後的 HTML 中:Googlebot 雖然會渲染,但如果你用 JS 載入的內容根本沒顯示在 DOM 裡,它還是抓不到。
  • Googlebot 無法呼叫 JS:像是某些 API 要登入、設定權限,Googlebot 就會吃閉門羹。
  • JS 的執行條件寫太複雜:觸發內容出現的 JS 被設計得太深、執行順序不穩,也會導致「抓不到」。
  • 使用者互動才會顯示內容:像是要點擊「展開更多」才出現的內容,Googlebot 不會點擊!這類資訊幾乎不會被讀取到,Googlebot 只會讀取前 10,000px 的內容。
  • URL 使用 # hash 導向不同內容:例如 /#products,這種 hash 並不會傳送新的請求給伺服器,爬蟲就看不到內容。
  • SPA 架構造成的 Soft 404 問題:單頁應用(SPA)如果內容有問題,HTTP 狀態碼卻沒反應錯誤,Googlebot 會誤判成 Soft 404。

Google 眼中的「頁面內容」是怎麼被理解的?(11:30)

這場的主題回到基本功:Google 到底怎麼判讀你的網頁內容?

講者提醒大家,Google 會根據頁面區塊來評估資訊的重要性,並不是整頁一視同仁!以下是他們對不同區塊的「重視程度」

  • Header(頁首)👉 重要度低
  • Nav(導覽列)👉 重要度低
  • Main Content(主內容)👉 最重要!

也就是說,如果你把原本在 footer 的分類連結、或低轉換的 tag 頁面硬放進主內容區塊,Google 會以為那是你最重要的資訊,反而可能傷到網站整體內容權重。

延伸閱讀:搜尋品質評分者指南

Soft 404 是什麼?什麼狀況會被判定?

這段也提到一個大家常見卻搞不清的問題:「為什麼 Google 判定我的頁面是 Soft 404?」Soft 404 並不是實際 404(錯誤頁),而是「你頁面看起來有問題,但狀態碼卻沒回報錯誤」。原因可能有:

  • 網頁內容太少,像是只有幾句話或空空如也
  • CMS 或主機錯誤,導致無法載入資料
  • JavaScript 為主的網站沒成功渲染內容
  • Google 本身判斷錯誤(可能是 bug)

📌 小提醒:如果你發現好好的頁面被標記為 Soft 404,記得打開 Google Search Console 索引報表,對照看看是內容品質、技術錯誤還是渲染問題!

接下來就接午餐時間了~ 吃飽喝足後,下午重點轉向「重複內容」與國際化挑戰!第一場直攻 SEO 的老問題:重複內容該怎麼處理?

如何處理網站重複內容?(12:45)

先釐清一個觀念:重複內容 ≠ 抄襲內容,而是 Google 無法判斷哪一頁才該被納入索引與排名。

重複內容的辨識流程:

  1. 先辨認 是否為實際重複內容(同樣主題/段落/區塊)
  2. 再挑選 標準網址(Canonical URL)讓搜尋引擎知道「誰是標準頁面」

多語系網站也要小心!語言相近、內容架構類似的多國版本,若未加上 Hreflang 標記,也可能被視為重複內容,導致 Google 隨機只收錄其中一頁。講者整理出 Google 最常依賴的「信號」來判定哪些內容該被索引:

  1. 使用者體驗信號:使用者是否真的需要這兩份相似內容?
  2. 網站技術信號:是否有設置正確的 301 轉址、Canonical、Sitemap?
  3. 語言與地區信號:是否有加上 hreflang 標記來清楚區分語系?

📌 建議操作方式:

  • 使用 301 轉址明確導向主頁
  • 確保 HTTPS 狀態碼正確無誤
  • 正確設置 <link rel=”canonical”>
  • 多語系頁面使用 Hreflang 對應不同地區與語言
  • 提供一致且清楚的「標準化信號」,避免讓 Google 猜來猜去

⚡Lightning Session J:網站搬遷不是搬家而已,搞錯方式 SEO 全掛!(12:57)

這場由日本樂天技術 SEO 負責人分享他們經歷的一場「搬站升級」,內容毫不閃避實戰難題!他們在網站搬遷時遇到幾個挑戰:

  • 301 轉址清單混亂,一開始沒處理好,導致大量頁面連結失效與流量流失
  • 搬站過程需透過 Akamai Reverse Proxy (反向代理服務) 處理導流,確保使用者體驗不中斷

透過 Akamai 的反向代理技術,整合兩個不同來源的網站資料。遷移後成效驚人!直接達成「9 倍流量成長」的優化成效!

講者建議重點:內容若掛在主站(主服務網域)下的表現,通常會優於獨立的子網域。

講者資訊:https://www.linkedin.com/in/akihiro-miyata-36158791/

結構化資料是什麼?為什麼它會是搜尋的黃金訊號?(13:05)

Gary 在這場段落一開頭就強調:「結構化資料,就是讓我們更快找到你頁面『金塊』的方式。」
不論是商品、文章、影片還是圖片,只要透過 Google 支援的結構化資料 標記,就能幫助搜尋引擎快速理解頁面重點。尤其在 AI 搜尋與多媒體內容越來越重要的時代,這些標記幾乎成了被擷取的「先決條件」。

講者也提醒,Media Indexing(媒體內容的索引)其實與 HTML 索引是不同步處理的流程,結構化資料在這裡就扮演橋樑角色:讓 Google 更清楚知道「這是什麼」、「要怎麼呈現」、「值不值得讓它曝光」。簡單來說,結構化資料就像是在告訴 Google:「這篇文章有精采影片」「這張圖片是產品主圖」「這段文字是評論摘要」,越清晰、越正確,越有機會出現在更吸睛的位置。

官方參考文件:結構化資料通用指南

媒體內容怎麼做 SEO?透過圖片與影片吸引使用者(13:17~13:27)

接下來這一段聚焦在圖片與影片的索引,圖片與影片常常被當成「裝飾」,但其實它們早就是搜尋結果中的重要內容,能不能被抓到、怎麼呈現,都會影響到 SEO 表現!

圖片該怎麼做才有機會被抓到?

Google 會透過 <img> 標籤的 src、alt、title 及 <picture> 標籤來理解圖片內容:

  • alt 是最重要的欄位,請務必寫得具有描述性。
  • title 屬於弱信號,但仍可提供額外脈絡。

但須注意,透過 CSS 設定的背景圖片(background-image)不會被搜尋引擎收錄。

另外結構化資料中也能加入圖片,像是文章主圖、商品圖、人物大頭貼(ProfilePage)等,但必須是與頁面內容強相關的主要圖像,才有意義,如果有許多無意義背景圖,還可以考慮阻擋爬取來節省檢索預算。

Q. 那麼應該要阻擋 AI 生成的圖片嗎?
A. 「看你要不要。」Google 的回應很實際只要有人會搜尋它、而且內容不錯,它就有可能被顯示在搜尋結果,但仍要小心幻覺或錯誤資訊的風險。

Q. 影片怎麼提升搜尋曝光?
A. 影片已經不只出現在 YouTube 裡了,搜尋結果、影片搜尋結果、Discover 都可能露出,Google 也正在擴大支援 key moments、預覽縮圖等豐富功能。

想提升影片的搜尋曝光,有 5 個重要動作:

  1. 頁面內容本身要夠好(不要只塞影片沒內文)
  2. 影片嵌入位置要對,最好放在主內容區
  3. 加上影片結構化資料(JSON-LD 格式最推薦)
  4. 提供影片 sitemap,幫助搜尋引擎了解內容
  5. 確認手機與桌機都能正常播放,避免嵌入失敗

同樣的,AI 生成的影片要不要 disallow?
Google 回應一樣是:「看你。」但再度提醒,務必注意內容品質與準確性,尤其是避免 AI 幻覺!

多語系網站怎麼做?國際化與在地化 SEO 策略重點(13:45)

談到國際 SEO,今天這場的關鍵字就是:hreflang + 在地化訊號。只要你的網站有不同語言版本、跨國市場,那這些設定絕對不能忽略!

hreflang 怎麼設才正確?

hreflang 用來告訴 Google:這個頁面有對應的語言/地區版本,請依照使用者所在位置正確導向。最常見的作法,是在 HTML 標籤中加上 <link rel=”alternate” hreflang=”xx-YY”>,或使用 sitemap 告訴 Google 對應關係。

📌 最常見的錯誤:

  • A 頁面設定了 hreflang 指向 B,但 B 沒有回指向 A → 失敗
  • 使用了錯誤的語言代碼(❌ jp、UK ➜ ✅ ja、GB)
  • 只設定地區沒有語言(❌ hreflang=”sg” ➜ ✅ hreflang=”en-sg”)

正確的 hreflang 設定應該是雙向互通,語言+地區都要寫對。

Google 怎麼判斷哪個版本給哪個地區看?

除了 hreflang,Google 也會綜合以下訊號判斷使用者該看到哪個版本的網頁:

  • ccTLD(如 .tw、.jp、.uk)
  • 伺服器地理位置
  • 網站上的其他在地化線索:使用語言、結帳幣別、地區限定連結、企業資訊檔案等

至於用機器翻譯的多語系頁面可以嗎?
Google 的回應是:要看翻譯品質。

若翻出來的內容不符合當地用語、語氣怪怪的、不符文化習慣,就不會是一個好的體驗,也可能無法達到 SEO 效果。

⚡Lightning Session D:GSC、Trends 實戰!國際化 SEO 怎麼做(14:00)

延續前一段的多國語系,這場閃電講座進一步帶來兩個工具的活用技巧:Google Search Console(GSC)與 Google Trends。

1️⃣ Google Search Console 多語系管理術

講者強調,如果你有經營多語言、多地區的網站,應該使用「網址資源」而不是「網域資源」來加入 GSC,才能獲得最完整的資料追蹤與優化彈性,就算只是使用子目錄(像是 /en-au/、/en-in/)也 OK!

現場展示的案例圖中,可以看到將每個語言區塊都獨立加入 Google Search Console 追蹤,這樣每個語系就能擁有獨立的資料報表,搭配 API 與爬蟲工具(如 Screaming Frog),可以做更精細的優化分析。

講者資訊:https://es.linkedin.com/in/nataliawitczyk

2️⃣ Google Trends 多語詞觀察法

第二位講者則分享他們如何利用 Google Trends 搭配多語系關鍵字進行趨勢觀察,並提出幾項實用建議,希望 Google 能未來改善:

  • 在 Google Trends 中加入 Discover 數據
  • 可以像 X.com 一樣查看全球整合趨勢
  • 能依「語言」分類而非僅是國家
  • 提供更多搜尋量數據與 API 支援

是對 Google 最真誠的許願清單,也呼應了許多 SEO 專家的心聲!

講者資訊:https://linktr.ee/gkqa

海報發表 E:索引 × 多語系實戰(14:18)

休息時間前,安排了特別的 Poster Session(海報發表),這也是 Google 首度在 Search Central Live 嘗試這種交流方式。與會者可以自由走動,和各主題講者近距離互動、提問、交換意見,特別適合像「索引」、「多語系優化」這種需要因地制宜、case by case 需要靈活討論的議題。分享的主題包含:

  • 如何在五分鐘內完成網站健檢
  • 多語系 SEO 實戰分享(來自日本、韓國、波蘭的經驗)

例如,來自 LOANDO 團隊的講者,現場分享了如何將波蘭的財經平台成功拓展至羅馬尼亞、烏克蘭、捷克等新市場。從初期遭遇流量下滑的挑戰,到藉由多語系優化策略,包含在地化內容策略、公關操作提升品牌能見度、遵循當地法規政策等方式,進而強化多語系 SEO 成效,最終實現流量與營收的成長。

而另一位針對跨境電商的講者則從語言使用出發,帶來不同的見解:

他分享,當美國產品進入日本市場時,不只是文化適應問題,更要處理一個非常實際的挑戰:商品名稱怎麼翻才對?以「T-shirt」為例,在美國是單一詞彙,但在日本卻可能被搜尋為「圓領 T 恤」、「短袖 T 恤」、「棉質 T 恤」使用者的搜尋方法非常多樣。

為了解日本使用者的真實搜尋習慣,講者不只做市調、分析不同年齡層的用字,甚至連模擬鍵盤輸入方式都納入考量!最後他們打造出一套以機器學習為基礎的「商品名稱翻譯模型」,能在規模化上架商品時,自動轉換為最貼近日本使用者習慣的搜尋字詞,不只優化了頁面 title,還讓國際商家能以最合適的商品翻譯名稱,出現在當地用戶的眼前。

這場互動式的發表形式,不只是聽講,更讓整場活動多了份「國際 SEO 同樂會」的氛圍~

哪些才是真正的「索引信號」?Google 來解答!(15:05)

「你覺得哪些是 Google 用來判斷索引的信號呢?」Gary Illyes 也來一波互動小遊戲,讓大家猜猜哪些訊號會影響索引。結果不少人都選錯,因為像是「Domain Age」「XML Sitemap」「E-E-A-T」其實都不是索引信號!

✅ 是索引信號的有:

  • 國家 Country
  • 語言
  • HTTPS / 安全網站
  • Core Web Vitals
  • Dofollow 連結
  • 內容新鮮度(Recency)
  • 垃圾內容違規(Spam Policies Violations)

❌ 不是索引信號的有:

  • 網域年齡與歷史
  • 結構化資料
  • XML Sitemap
  • 可爬行性(Crawlability)
  • 內容深度與完整性
  • 合理的內部連結(Logical Internal Linking)
  • 內容可讀性(Readability)
  • 主題權威性(Topical Authority)
  • 搜尋意圖對齊(Matching Search Intent)
  • 關鍵字使用(Keyword in HTML)
  • E-E-A-T(專業性、權威性、可信度)
  • hreflang 標籤
  • Link Velocity(連結成長速度)

這張表就是官方現場直接揭露的版本,有沒有顛覆你的想像?

再次強調一件事:很多我們熟知的 SEO 技術,未必跟「是否被索引」直接相關,尤其像 hreflang、E-E-A-T 或結構化資料,雖然重要,卻是用來提升理解或排序,而不是讓你被「抓進資料庫」的關鍵。

用這個環節提醒大家:搞懂 Google 的排序邏輯很重要,但別忘了先搞懂「被收錄」的基礎機制。

哪些內容能被收進 Google 索引?這些「信號」你要懂!(15:25~15:45)

進入索引機制的「黑盒子」環節。Gary Illyes 直接揭露:不是所有被爬的頁面都會被索引,Google 會挑!想進索引庫?內容必須夠「實用、可信」,也就是大家熟知的高品質內容。

🚫 不被索引的常見原因:

  • 頁面設了 noindex
  • 網站內部標註為過期內容(expired)
  • soft 404 錯誤
  • 重複內容
  • 垃圾內容或違反政策(至於是哪些政策?Gary 神秘地說「這是秘密😏」)

📌 有兩種常見的 GSC 狀態,別急著修它:

  • Discovered – currently not indexed(已找到,目前尚未建立索引):已發現頁面,但暫時不檢索,是因為當下檢索會讓你網站過載,之後會再來。
  • Crawled – currently not indexed(已檢索 – 目前尚未建立索引):已經爬了,但目前沒打算收進資料庫。這種情況,不用硬改,先觀察就好!

那我們在索引報表中看到的錯誤到底要不要處理?

Gary 的建議很清楚:「不一定!有些只是暫時狀態,並不是問題本身。」Google 搜尋團隊也再次推薦,如果你想更理解整個索引判斷邏輯,可以回頭翻翻這兩份官方文件:詳盡指南:Google 搜尋的運作方式檢索及索引相關主題總覽

Google Trends API 登場!用資料看懂搜尋趨勢(15:50)

今天最後一場,以一場充滿驚喜的小遊戲收尾,現場觀眾現學現用 Google Trends 介面,搶答「在過去五年內,YouTube 上 Pad Thai (泰式炒河粉) 的第二熱搜相關話題是?」等趣味題目!

雖然是遊戲,但也讓大家實際體會 Google Trends 的強大功能:它不只可以看單一關鍵字,還能比對主題、掌握用戶搜尋意圖,甚至辨識地區與時間趨勢,從網站、圖片、新聞、購物到 YouTube 全部支援。

Trending now 功能更強大!

  • 即時顯示趨勢變化(4/24/48 小時、7 天)
  • 提供搜尋斷點、搜量、分類
  • 有新聞連結 + SERP 畫面,幫你快速掌握流量方向

想搶節慶流量?一定要提早 1~2 個月布局

重磅亮點來了:Google Trends API 正式開放試用申請!

台下立刻爆出歡呼聲,因為這是很多 SEO 團隊、內容團隊、數據工程師等待已久的功能!Google Trends API 可以做到:

  • 擷取 scaled data(不再是相對值 0~100,而是保留絕對比例)
  • 時間範圍從 近 48 小時到過去 5 年都能查
  • 可自由選擇 日、週、月、年顯示
  • 支援 國家 / 類別篩選
  • 讓你一次查出「香蕉 vs 蘋果」誰搜量高,不會因為查的組合不同而重置圖表數據!(之前以相對值 呈現,所以圖表數據會變)

如果你有固定追蹤趨勢需求,強烈建議盡早申請試用,這將是內容與 SEO 佈局的超級助攻!

❓QA時間問答精華

最後壓軸照例是開放提問時間。今天的提問同樣精彩,從 Gemini、Trends API 到索引邏輯,全都問到點上。以下是現場整理的 10 個值得筆記的精華問答:

Q1. Gemini 上的搜尋也有被計入 Google Trends 嗎?
A1. 還沒有。

Q2. Google Trends API 有包含 Trending Now 功能嗎?
A2. 沒有,目前尚未支援。

Q3. 謠言有提到 ChatGPT 使用 Google 的索引資料?是真的嗎?
A3. 講者表示不知道、不在乎、不回應謠言 XD

Q4. SSR(Server-side Rendering)相比動態渲染(CSR)有優勢嗎?
A4. 沒有直接優勢,但 CSR 網站在索引時比較容易出現問題。

Q5. Google 如何判定並處理 soft 404?會使用先前爬取的內容嗎?
A5. 不會。被判定為 soft 404 的頁面可能會被取消索引,舊內容不會被拿來替代。

Q6. Google Trends 中 search terms 跟 topics 有什麼差別?
A6. search terms 是具體搜尋詞,topics 是概念主題,會自動包進錯字等變形,但無法看到精確用詞。

Q7. 結構化資料對 SEO 有幫助,是指那些能顯示 Rich Result 的結構化資料嗎?
A7. 結構化資料不影響排名,有幫助但難以具體量化。

Q8. 針對 “crawled-not indexed” (已檢索 – 尚未建立索引)的頁面,該怎麼辦?
A8. 通常代表這些頁面內容品質不夠好或有技術問題。要向 Googlebot 證明你的內容「值得索引」。sitemap 雖然有助於被發現與爬取,但對實際進入索引幫助有限。

Q9. 為什麼 Google Webcache 被移除了?未來會有替代工具嗎?
A9. 沒有說原因,但猜測是「使用率低」、「營運成本高」。目前也沒有推出類似替代方案的計畫。

Q10. 像菲律賓這樣的多語種國家,該怎麼做語言優化?
A10. 像菲律賓或印度這種國家,多語系使用者比例平均,目前真的沒有完美解法。Google :「等未來有統一的語言再說吧!」

awoo 的觀察與反思

從今天的內容可以發現:「SEO 的技術底層,依然值得深入投資。」

不論是 JavaScript 網站的渲染挑戰、多語系 hreflang 的錯誤處理,還是索引判定與資源配置,其實每個看似細節的地方,都有可能對網站收錄與排名造成實質影響。

Gary Illyes 在台上的提醒很中肯:「你不需要為了 AI 而重新命名 SEO。」但也正因如此,更需要回到 SEO 的核心技術,確保網站的內容能被「看見」、被「理解」、也被「正確地放進搜尋結果」。

這也是 awoo 團隊參與活動的初衷:持續吸收第一線的技術趨勢與演進思維,轉化為對品牌真正有幫助的策略與建議。

🔗 查看其他篇

◀️ 前一天主題:【Search Central Live Deep Dive】Day1:SEO is Dead?AI 搜尋時代的 SEO 新解讀!|awoo 活動實記

結語

Search Central Live Deep Dive 為期三天,不只是資訊密集的研討會,更是與全球搜尋專家交流的平台。awoo 將持續追蹤相關趨勢與實務應用,協助品牌掌握搜尋優化機會。下一篇是活動第 3 天,主題將聚焦在「搜尋結果的形成邏輯 × Search Console 問題診斷 × 趨勢洞察實戰」,敬請期待!

如有任何網站流量成長相關問題與需求、或想瞭解更多 AI SEO/LLMO 服務歡迎立即諮詢,將有 awoo 專業顧問與您聯繫。

延伸閱讀:專業 SEO 公司如何挑選?4大挑選原則讓你一次搞懂

▎延伸閱讀:【2025最新版】SEO是什麼? SEO怎麼做? SEO搜尋引擎排名優化一次搞懂