聊天機器人 要補歷史課

有谷歌用戶日前貼出截圖,顯示人工智能(AI)聊天機器人Gemini生成歷史性場面時出現「不準確」,原本應以白人為主的場面卻變成其他種族,引起外界批評谷歌對其AI模型是否矯枉過正。谷歌周三(21日)馬上道歉,隔天宣布暫停Gemini生成人像功能。

過往研究顯示,AI圖像生成器可以放大它們的訓練資料找到的種族和性別刻板印象。當被要求依不同背景生成某人時,若無篩選器的話,更有可能顯示膚色較淺的男子。

谷歌周三表示,「已知悉Gemini在一些歷史性圖像世代描述上提供不準確訊息」,又稱正在著手改善,「很快重新釋出改善版本」。

Gemini可以生成「不同的人」,谷歌稱「整體上是好事」,因為世界各地的人都在使用這套系統,然而「未達到預期效果」。

研究AI圖像生成器偏見問題的西雅圖華盛頓大學研究人員戈什(Sourojit Ghosh)表示,他支持谷歌暫停生成人臉的決定,但對於「我們得到這種結果感到有些矛盾」。他又指,谷歌也許可以找到方式篩選回應,從而反映用戶提示的歷史背景。但他承認,解決由圖像生成器透過網上世代圖像和藝術器而造成的更廣泛傷害不僅僅是技術上的修正,因為「它們反映我們所身處的社會」。美聯社電

科技-三藩市版