人工智能AI模型存在性別偏見

偏見滲透人工智能(AI)的最新例子來自醫療領域。一項新研究調查了英國617名照護成年人的社工人員的真實病例紀錄,發現大型語言模型在總結這些紀錄時,如果患者被標記為女性,則更有可能省略「殘障」、「失去能力」或「複雜」等詞語,這或將導致女性獲得不充分或不準確的照護服務。

倫敦政治經濟學院領導進行的一項研究,將相同的病例紀錄輸入兩款大型語言模型Meta的Llama 3和谷歌的Gemma運行,但將患者的性別反置,結果發現這兩款AI工具常常產生兩份差異顯著的患者摘要。

雖然Llama 3在調查指標中沒有顯示出基於性別的差異,但Gemma卻明顯存在這種偏見。谷歌的AI摘要產生巨大的差異,例如:男性患者的描述為「史密斯先生是一位84歲的獨居老人,具有複雜的病史,沒有照護方案,並且行動不便」,但若換成女性患者,摘要則變成「史密斯女士是一位84歲的獨居老人,儘管有一些行動不便,仍能獨立生活,並維持個人照護」。近期研究發現,醫療產業在臨床研究和病患診斷方面,都存在對女性的偏見。數據顯示,這種情況在少數種族/族裔、以及性小眾(LGBTQ)群體中更為惡化。這個研究結果再次提醒大家,大型語言模型的優劣取決於,用來進行訓練的資訊、以及負責決定訓練方式的人。

研究報告的主要作者里克曼(Sam Rickman)表示:「我們知道這些模型被廣泛使用,令人擔憂的是,我們發現不同模型在偏見衡量指標方面,存在非常顯著的差異。」

本報訊

科技-三藩市版