OpenAI又迎人事動盪

在兩位關鍵領導人離職後,OpenAI專注於研究人工智能生存危險的團隊已解散,公司未來走向受矚目。路透社資料圖片

本報訊

在兩位關鍵領導人離職後,OpenAI專注於研究人工智能(AI)生存危險的團隊已全部辭職或被其他小組吸收,內部最近動盪頻繁,再次引發了人們對該公司在開發AI產品時的質疑。

財聯社報道,OpenAI公司證實,該公司不再將所謂的「超級對齊」團隊作為一個獨立的實體,而是將該團隊更深入地整合到其研究工作中,以幫助公司實現其安全目標。

在去年7月份,OpenAI宣布成立一個新的研究團隊「超級對齊」,要用AI監督AI的方式,解決超智能「AI對齊」問題。「AI對齊」的意思是,要求AI系統的目標要和人類的價值觀與利益相一致。公司創始人之一伊利亞.蘇茨克沃被任命為團隊共同負責人。

而現在AI風險團隊解散是公司內部最近出現動盪的又一證據,也再次引發了人們對該公司在開發AI產品時如何平衡速度與安全的質疑。OpenAI章程規定,必須安全地開發通用人工智能(AGI),即可以與人類匹敵或超越人類的技術。

上個月,超級對齊團隊兩名研究人員因洩露公司機密而被解僱,另一名成員也在2月離開。到了本周二,伊利亞在社交平台X上宣布,他將在近十年後離開公司,相信在首席執行官奧爾特曼等人的領導下,能夠打造出既安全又有益的通用人工智能。伊利亞此前與奧爾特曼就AI的發展速度發生過衝突。

隨後,超級對齊團隊另一位負責人Jan Leike也宣布離職。不過有知情人士聲稱,對Leike來說,伊利亞的退出導致分歧嚴重到了無法調和的地步。

Leike17日發布聲明稱,超級對齊團隊一直在努力爭取資源。「在過去的幾個月\xf9堙A我的團隊一直在逆風航行。有時候我們在計算資源上掙扎,而且越來越難以完成這項關鍵的研究。」

他還表示,他的離職是因為他與OpenAI在公司的「核心優先事項」上存在一系列分歧,他認為,公司不夠關注AI相關的安全措施。

財經