Google Search Live 功能擴展至全球,導入 Gemini 3.1 Flash 模型。此更新旨在提升即時視覺語音問答之反應速度與多語言能力,並改善對話流暢度。Google Search Live 功能擴展至全球,導入 Gemini 3.1 Flash 模型。此更新旨在提升即時視覺語音問答之反應速度與多語言能力,並改善對話流暢度。

Google Search Live 鏡頭即時問答功能推向全球 導入 Gemini 3.1 Flash 模型

2026/03/19 12:51
閱讀時長 4 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 [email protected] 聯絡我們。

Google 宣布 Search Live 功能擴展至全球 200 多個國家地區,使用者可透過手機鏡頭即時提問,並改用 Gemini 3.1 Flash 模型提升對話流暢度與反應速度。
Google稍早宣布,將把結合手機鏡頭與即時AI語音問答的Search Live功能,正式推向全球市場。這項功能最初於去年的Google I/O 2025開發者大會亮相,並且在去年9月率先於美國的Google App推出。如今,只要是Google AI Mode聊天機器人有提供服務的地區,涵蓋全球200多個國家地區的使用者,都能開始體驗這項「所見即所問」的創新搜尋模式。

打破「先拍照、後搜尋」限制,實現即時視覺對話

Search Live的核心概念非常直覺:使用者只需將手機鏡頭對準眼前的物體、地標或任何場景,就能直接開口向AI提出問題。系統會根據鏡頭捕捉到的即時畫面進行分析,並且透過語音給出相應的解答與互動。

這徹底打破過去使用Google Lens必須先拍下靜態照片,再圈選範圍進行搜尋的繁瑣步驟,讓找尋答案的過程變得如同與身旁的真人嚮導對話般自然。

Gemini 3.1 Flash模型加持:更快、更穩、支援多語系

除了大幅擴張服務版圖,Google這次也針對Search Live的底層運算技術進行關鍵升級。

官方表示,Search Live現在已全面改用最新的Gemini 3.1 Flash模型。這項升級為使用者帶來了三個顯著的體驗改善:

• 更自然的對話流暢度:模型在理解連續性問題與語境上的表現更加出色。

• 低延遲的即時反應:Flash模型的輕量化與高速運算特性,提供更快、更可靠的系統反應速度,對於需要即時處理龐大影像串流的視覺問答來說相當重要。

• 原生多語系支援 (Natively Multilingual):新模型在設計之初便具備強大的多國語言處理能力,這也是Google有底氣將其一口氣推向200多個國家地區的核心關鍵。

如何啟用Search Live功能?

目前,這項功能已經陸續推送至Android與iOS平台的Google App中。使用者可以透過以下兩種方式輕鬆存取:

• 透過Google App:直接開啟應用程式,點擊搜尋列下方的「Live」按鈕即可開始。

 透過Google Lens (智慧鏡頭):在智慧鏡頭的介面中,尋找位於螢幕底部的「Live」圖示,點擊後同樣能啟動即時視覺對話模式。

資料來源

  • https://mashdigi.com/search-live-goes-global-google-announces-global-launch-of-search-live-fully-integrating-gemini-3-1-flash-mockups/
市場機遇
Ucan fix life in1day 圖標
Ucan fix life in1day實時價格 (1)
$0.000301
$0.000301$0.000301
+0.80%
USD
Ucan fix life in1day (1) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 [email protected] 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。