

谷歌搜尋試驗功能「AI模式」(AI Mode)讓用戶為某個主題提出複雜和涉及不同範疇的後續查詢,最新一步是多重模式搜尋(multimodal search),讓用戶上傳照片或直接拍照提問。
該圖像分析功能由谷歌智慧鏡頭(Google Lens)的多重模式功能所驅動。
谷歌稱,AI模式可以理解一張圖像內整個場景,包括物件之間的關聯,及其材料、顏色、形狀和排列等。透過該技術,AI模型會詢問多個關於這張圖像和當中物件的問題,比傳統的谷歌搜尋提供更詳細的資訊。
例如,用戶為其書架拍下照片,然後查詢,「如果我享受這些書,有哪些同類的獲得很高評價的書?」AI模式先辨識每本書,然後提供一份推薦書籍的名單,還會附上連結,讓用戶了解更多和購買書籍。
AI模式也讓用戶提出後續問題以縮小搜尋範圍,例如「我正在找一本書來速讀」或「哪一本推薦的書的內容最短?」
AI模式過去只有Google One AI進階版訂戶使用,即日起AI模式現已適用於登記加入「谷歌實驗室」(Labs)的數百萬名用戶。
業界分析,上月推出的AI模式旨在與Perplexity和OpenAI ChatGPT Search等熱門搜尋服務競爭。谷歌曾稱,它計劃繼續調整用戶體驗,未來推出更多功能。
與此同時,谷歌周一也向旗下手機Pixel 9和三星Galaxy S25智能手機推出兩項Gemini Live新功能,亦即上月在巴塞羅那「世界行動通訊大會」(MWC)率先展示的Gemini即時視頻和螢幕畫面分享(screensharing)功能,容許用戶利用Gemini的多重模式,向谷歌聊天機器人詢問關於用戶視線前方或其手機畫面內容的問題。
至於非Pixel 9或Galaxy S25用戶,可透過Android的Gemini應用程式使用新功能,但需訂閱月費20元的Google One AI進階版方案。