谷歌新AI模型可識別情緒

谷歌發布PaliGemma 2系列模型,可分析圖片,稱可識別人的情緒。Google

谷歌稱其新的人工智能(AI)模型系列有一個奇特的功能:能夠「識別」情緒。

據TechCrunch報道,5日發佈的PaliGemma 2系列模型,可分析圖片,通過AI生成圖說,並回答有關它在照片中「看到」的人的問題。

「PaliGemma 2能為圖片生成詳細、與情境相關的圖說」,谷歌在博文中寫道,「不只是簡單的物體辨識,還能對動作、情緒和場景作整體敘述」。

情緒識別功能並非開箱即用,必須對PaliGemma 2進行微調。儘管如此,受訪專家對於公開提供情緒偵測器的前景感到震驚。

牛津互聯網研究所數據倫理與AI教授華徹(Sandra Wachter)表示:「這讓我感到非常不安。我覺得假設我們可以『閱讀』人們的情緒,是會有問題的。」

多年來,創業公司和科技巨頭都嘗試建立可以探測情緒的AI,來提升從銷售訓練到防止意外事故等各項服務。有些聲稱已經達到目標,但這一技術的科學基礎並不牢固。

心理學家艾克曼(Paul Ekman)提出人類共有6種基本情緒的理論:憤怒、驚訝、噁心、愉快、恐懼和悲傷。但後來的研究提出了質疑,研究顯示不同背景的人在表達自己的感受時存在很大差異。

瑪麗皇后大學專攻AI的研究員庫克(Mike Cook)說:「在一般情況下,情緒偵測是不可能的,因為人們體驗情緒的方式很複雜。當然,我們可以透過觀察來得知別人的感受。但這並不是我們能夠完全『解決』的問題。」

情緒偵測系統往往不可靠,並受到設計者的假設所影響。2020年麻省理工學院研究員發現臉部分析模型可能會對某些表情產生非預期的偏好,比如微笑。最近的研究顯示,情緒分析模型會對黑人的臉比白人的臉賦予更多負面情緒。

谷歌表示已進行「廣泛測試」來評估PaliGemma 2中的偏見,並發現與業界基準相比,「毒性與侮辱性的程度都很低」。該公司唯一透露的基準是FairFace,宣稱PaliGemma 2在FairFace上得分很高。但有些研究人員批評這個基準是有偏見的指標,並指出FairFace只代表少數的種族群體。

情緒偵測系統引起了海外監管機構的不滿,並限制這技術在高風險環境中的使用。歐盟的《AI法案》禁止學校與僱主部署情緒偵測器,但不包括執法機關。

最大憂慮是,這些公開模型會被濫用或誤用,可能導致真實世界中的傷害。

科技-三藩市版