Google 宣布 Search Live 功能擴展至全球 200 多個國家地區,使用者可透過手機鏡頭即時提問,並改用 Gemini 3.1 Flash 模型提升對話流暢度與反應速度。
Google稍早宣布,將把結合手機鏡頭與即時AI語音問答的Search Live功能,正式推向全球市場。這項功能最初於去年的Google I/O 2025開發者大會亮相,並且在去年9月率先於美國的Google App推出。如今,只要是Google AI Mode聊天機器人有提供服務的地區,涵蓋全球200多個國家地區的使用者,都能開始體驗這項「所見即所問」的創新搜尋模式。
打破「先拍照、後搜尋」限制,實現即時視覺對話
Search Live的核心概念非常直覺:使用者只需將手機鏡頭對準眼前的物體、地標或任何場景,就能直接開口向AI提出問題。系統會根據鏡頭捕捉到的即時畫面進行分析,並且透過語音給出相應的解答與互動。
這徹底打破過去使用Google Lens必須先拍下靜態照片,再圈選範圍進行搜尋的繁瑣步驟,讓找尋答案的過程變得如同與身旁的真人嚮導對話般自然。
Gemini 3.1 Flash模型加持:更快、更穩、支援多語系
除了大幅擴張服務版圖,Google這次也針對Search Live的底層運算技術進行關鍵升級。
官方表示,Search Live現在已全面改用最新的Gemini 3.1 Flash模型。這項升級為使用者帶來了三個顯著的體驗改善:
• 更自然的對話流暢度:模型在理解連續性問題與語境上的表現更加出色。
• 低延遲的即時反應:Flash模型的輕量化與高速運算特性,提供更快、更可靠的系統反應速度,對於需要即時處理龐大影像串流的視覺問答來說相當重要。
• 原生多語系支援 (Natively Multilingual):新模型在設計之初便具備強大的多國語言處理能力,這也是Google有底氣將其一口氣推向200多個國家地區的核心關鍵。
如何啟用Search Live功能?
目前,這項功能已經陸續推送至Android與iOS平台的Google App中。使用者可以透過以下兩種方式輕鬆存取:
• 透過Google App:直接開啟應用程式,點擊搜尋列下方的「Live」按鈕即可開始。
• 透過Google Lens (智慧鏡頭):在智慧鏡頭的介面中,尋找位於螢幕底部的「Live」圖示,點擊後同樣能啟動即時視覺對話模式。


