李飛飛領軍小組獻策議員 AI安全法應預見潛在風險

李飛飛領導的加州政策小組發表報告,呼籲州議員草擬AI政策時應考慮和顧及目前還未觀察得到的潛在AI風險。美聯社資料圖片

人工智能(AI)應如何監管近年引發熱議。一個由「AI教母」李飛飛領導的加州政策小組發表最新報告,呼籲州議員草擬AI管制政策時,應將「在世界上尚未觀察得到」的AI風險納入考量。

科技新聞網站TechCrunch報道,這份本周發布的41頁初步報告,係由州長紐森去年否決SB1047 AI監管法案後成立的「加州前沿AI模型政策聯合工作小組」(Joint California Policy Working Group on Frontier AI Models)所撰寫。雖然紐森認為法案有不足之處,但他承認有必要對AI風險進行更全面評估提供給州議員。

李飛飛與兩名共同作者柏克萊加大運算學院院長查耶斯(Jennifer Chayes)和卡內基國際和平基金會(Carnegie Endowment for International Peace)主席奎利亞爾(Mariano-Florentino Cuellar)在報告中支持立法,提高OpenAI等AI公司的AI模型開發的透明度。

根據報告,AI系統帶來的新風險可能需要立法來強迫AI模型開發人員公開他們的安全測試、數據取得作業和保安措施。報告又建議提高第三方評估這些指標和企業政策的標準,以及為AI公司僱員擴大告密者保護。

李飛飛指出,「沒有確鑿的證據表明AI幫助實施網路攻擊、製作生化武器或帶來其他『極端』威脅的可能」。但報告作者認為,AI政策不應只解決當前風險,還應該預測未來在沒有充分安全措施下可能發生的後果,「例如我們不需要觀察到核武爆炸便能可靠預測它可能造成廣泛危害」。

報告建議雙管齊下的策略,提升AI模型開發的透明度︰信任但驗證。報告認為,AI模型開發公司和僱員應有方式報告內部安全測試等公眾有疑慮的領域,並規定他們遞交經第三方驗證的測試結果。

雖然報告未支持特定立法,但仍獲得AI管制問題專家一致好評。批評SB1047的AI研究學者鮑爾(Dean Ball)認為報告標誌著加州AI安全監管一個有希望的進展。去年提出SB1047的州參議員威善高(Scott Wiener)則指,報告「建立於我們在州議會開始關於AI監管的緊急對話之上」。報告最終版本將於6月前提交。本報訊

加州