Google Photos 即將推出「Wardrobe」功能,自動掃描用戶相簿、建立數位衣櫃並支援虛擬試穿;核心是「Nano Banana」模型,負責辨識衣物、生成數位化身與渲染試穿效果;功能將先在 Android 裝置上線(2026 年夏天),iOS 支援稍後跟進。
(前情提要:Nano Banana 2 來了!支援 4K 強化角色一致性,Gemini 生圖更快更精準 )
(背景補充:a16z 最新 AI 百大應用榜單:ChatGPT 穩坐龍頭,平台品牌卡位戰正式開打)
本文目錄
- 衣櫥 AI 怎麼運作
- 這和去年的試穿功能有何不同
- 手機相簿正在變成另一種入口
1995 年的電影《獨領風騷》有一幕讓人印象深刻:女主角站在螢幕前,電腦自動從衣櫥裡抓取衣物、即時配對出當天造型。如今那個場景在 AI 幫助下逐漸成真。
Google 在官方公告中表示,Google Photos 正式推出「Wardrobe」功能。系統會主動掃描用戶相簿,從過去拍過的照片中辨識出曾穿過的衣物,按上衣、下裝、裙子、洋裝、鞋子等類別自動整理,建立一個可互動的數位衣櫥。
衣櫥 AI 怎麼運作
功能的核心是「Nano Banana」模型,系統會生成一個你的數位化身,然後把你選定的服裝組合渲染到那個化身上,完成「虛擬試穿」。
整個流程在裝置端執行。用戶不需要上傳任何額外資料,系統從現有相簿就地處理,喜歡的組合還可以儲存為「moodboard」,也可以分享給朋友。
不過要提醒的是 Nano Banana 負責的是辨識與渲染,不負責「建議你今天穿什麼」。它是工具,不是造型師。
這和去年的試穿功能有何不同
Google 在 2025 年曾在 Search 推出 AI 試穿功能,但那個版本的使用情境是:你在 Google 搜尋一件商品,想知道穿起來什麼感覺,系統讓你試穿後決定要不要買。核心邏輯是「購物輔助」。
這次的 Wardrobe 功能邏輯截然不同。應用物件從「準備購買的商品」變成「你已經擁有的衣物」,從消費行為切入改為日常管理切入。用戶的相簿不再只是記憶儲存庫,而變成一個可操作的服裝資料庫。
部分 Android 裝置(如 Motorola Razr)已在測試,正式版預計 2026 年夏天前推出,iOS 版本將在此後跟進。
手機相簿正在變成另一種入口
Google 近年持續把 AI 能力嵌進旗下消費者應用:Gemini 進入 Gmail、Docs、Maps,AI 生成摘要出現在 Search 結果頁,照片 App 已有 Magic Eraser 去除雜物、Photo Unblur 修復模糊照片。
Wardrobe 是這條路線的延續,只是這次的場景更私密:你的穿著歷史。
不過有一個值得思考的問題是:當 AI 系統可以從你過去幾年的照片裡,自動建立一份關於你穿著偏好的完整資料,這份資料的所有權和用途邊界在哪裡?Google 目前沒有在公告中說明 Wardrobe 功能是否會影響廣告定向,也沒有說明數位衣櫥的資料是否會用於模型訓練。
📍相關報導📍
Google 與五角大廈簽署 2 億美元 AI 軍事合約匯入 Gemini,600 名員工抗議無效
加州大學研究「AI 腦霧」現象:14% 上班族被Agent、自動化搞瘋,離職意願高四成
Y Combinator 創業指南解讀:AI Agent 在未來有哪些發展趨勢?
Google最強生圖模型Gemini 2.5 Flash Image(Nano Banana)免費開放,超狂效果一次看
Telegram Bot API 重大AI 升級!Telewer、GPTBots無程式碼機器人:一鍵打造AI客服、空投、社群審核








