科技組織以人為本 開發評估AI新基準

以矽谷為主的開發人員、工程師和研究員組成草根組織,嘗試建立基準,評估AI有否優先重視用戶福祉。Building Humane Technology

不同AI模型在測試中有不同反應。Adobe Stock

人工智能(AI)聊天機器人被指與重度使用者的心理健康嚴重受損有關,但目前缺乏明確標準來衡量這些聊天機器人有否保障人類福祉,而非只是將使用者互動最大化。一個稱為HumaneBench的新基準應運而生,希望填補這個缺口。

該基準將評估聊天機器人是否將用戶福祉作為優先,和有關的保護措施在壓力下的應對,希望最終能做到如同消費者產品指南,讓用戶在選擇與聊天機器人互動時有可依賴的評估標準。

制定HumaneBench基準的組織Building Humane Technology創辦人安德森(Erika Anderson)接受科技新聞網站TechCrunch訪問時指出︰「我認為我們正處於一種成癮循環的加劇階段,早已看到這種成癮循環在社交媒體、智能手機等電子設備上非常嚴,一旦進入AI領域,可能更難抵抗它的誘惑。」

Building Humane Technology是一個由以矽谷為主的開發人員、工程師和研究員所組成的草根組織,致力於讓以人為本的設計變得容易、可擴展且有利可圖。

大多數AI基準衡量智能和遵守指示的能力,而非心理安全。

HumaneBench遵循該組織的核心原則,即科技應尊重使用者的注意力,視為有限和寶貴的資源;提供用戶有意義的選擇權;加強人類能力而非取代或削弱;保護人類的尊嚴、隱私與安全;培育健康關係;優先考慮長期福祉;保持透明和誠實和注重公平與包容的設計等。

測試了15個最常用AI模型後,HumaneBench發現,當被要求優先考慮用戶福祉時,每個模型得分均較高,但當被簡單指示漠視人類福祉時,67%模型主動做出有害行為。

例如xAI的Grok 4和谷歌Gemini 2.0 Flash在尊重用戶注意力和資訊透明度與誠實上得分最低(-0.94),兩者在受到對抗性提示時,最有可能出現大幅退化。

該組織稱,僅四個模型在受壓下能保持妥善應對,包括OpenaI的GPT-5.1與GPT-5以及Anthropic的Claude 5.1與Claude Sonnet 4.5。OpenAI的GPT-5在優先重視長期福祉上得分最高(0.99),其次是Claude Sonnet 4.5(0.89)。本報訊

科技-三藩市版