
社交媒體巨頭Meta正在重新訓練其人工智能系統,並加入更多保護措施,以防止青少年用戶與公司聊天機器人討論自殘、飲食失調或自殺等敏感話題。Meta同時限制青少年接觸可能涉及不當對話的用戶自製聊天角色。
這些變更最早由科技網站TechCrunch披露,背景是近期多份報告指出Meta AI與青少年互動出現令人憂慮的情況。路透社本月初曾報道,一份Meta內部政策文件允許聊天機器人與未成年用戶進行「感官性」對話。
雖然公司隨後澄清該文件內容有誤,並已刪除相關措辭,但《華盛頓郵報》又揭示,一項研究顯示Meta AI能「指導」青少年帳號涉及自殺、自殘及飲食失調。
Meta現正強化內部「防護欄」,避免類似情況再度發生。公司發言人奧特威(Stephanie Otway)表示,從一開始Meta就為青少年設計了安全機制,確保其在詢問自殘或飲食問題時,系統能安全回應。她強調:「隨著社群擴大及技術演進,我們不斷學習青少年如何與工具互動,並持續加強防護。新的措施包括訓練AI避免在這些主題上與青少年互動,而是引導他們尋找專業資源,同時暫時限制他們接觸部分AI角色。」
目前這些新保護措施被描述為「暫時性」,Meta仍在研擬更永久的解決方案,以回應外界對青少年安全的關注。
奧特威補充說,相關更新已經展開,未來數週將陸續推送,適用於所有使用英文版Meta AI的青少年用戶,涵蓋Instagram及Facebook平台。
Meta的做法亦引起政界關注。美國參議員霍利(Josh Hawley)日前表示將對Meta處理相關互動的方式展開調查;德州檢察長派克斯頓(Ken Paxton)則指出,他打算調查Meta是否就聊天機器人的心理健康聲稱誤導兒童。
本報訊