當科技的迅猛發展背離了人類的道德規則與相關法規,必將醞釀更多的不安與騷亂。近日,據媒體報道,OpenAI正在解散其「AGI Readiness」團隊,團隊成員將分配至內部其他團隊。AGI全稱為Artificial general intelligence,即通用人工智能,它具備自主的感知、認知、決策、學習、執行和社會協作等能力,且在設計上趨向於符合人類情感、倫理與道德觀念。AGI Readiness團隊負責向OpenAI提供AGI發展的政策建議,並進行安全監督。
據悉,AGI Readiness負責人Miles Brundage宣布離職,計劃在OpenAI之外繼續從事該領域研究工作,並希望減少偏見。他表示,他已在OpenAI完成所有工作,在外部工作將產生更大的影響。在他看來,OpenAI及世界還未做好準備迎接AGI的到來,因此他計劃創建自己的非營利組織,專注於人工智能政策研究和宣傳。顯然,科學家們對於高科技的未來隱患已經心知肚明。
前不久,2024年諾貝爾物理學獎授予了美國科學家約翰.霍普菲爾德和加拿大科學家杰弗里.辛頓,表彰他們「通過人工神經網絡實現機器學習的基礎性發現和發明」。無獨有偶,2024年諾貝爾化學獎的共同獲獎者丹米斯.哈薩比斯和約翰.喬普開發了一種人工智能模型解決了一個50年前的問題:預測蛋白質的複雜結構。兩個諾獎同時頒給了智能技術使用者,可見AI已經成為尖端科學研究的關鍵工具。
全球人工智能領域的重要人物、OpenAI前研究副總裁達里奧.阿莫迪,曾在公開發表的文章中預言:當AGI到來,它的純粹智力方面甚至能超越諾貝爾獎得主,將科學新發現的速度提高10倍。現在看來,夢想似乎進入了加速度的時期。當機器能夠像人類一樣進行思考和推理,解決廣泛的複雜問題,顯然將給商業進化帶來極大的想像空間。不過,以當下的實際情況來看,從AI到AGI,這中間還有很長的路要走。
近年來,雖然AI的發展突飛猛進,但即使是最領先的AI工具,也仍是執行人類命令和實現人機交互的程序,而不具備獨立決策的能力。——問題來了,當這些「未來智能人」可以獨立決策的時候,還要人類幹甚麼呢?尤其,一旦它們具備了人類基本的七情六慾,是否在其中既可以誕生「孔子」與「蘇格拉底」,同樣也能造出「希特拉」與「索馬里海盜」? 那麼,抵達AGI時代需要跨過怎樣的技術鴻溝?以及要解決哪些複雜的現實挑戰?
相比人工智能產品不斷迭代增加,OpenAI對於人工智能的安全建設相對遲緩。2023年7月,成立8年的OpenAI才組建「超級對齊」團隊,目標是用20%的算力,在未來4年內解決控制超級智能AI的核心技術挑戰。然而成立不到一年,「超級對齊」團隊隨著OpenAI聯合創始人、首席科學家Ilya Sutskever離職而解散。Ilya Sutskever在社交媒體解釋了離職原因,他表示:「製造比人類更聰明的機器本身就是一項危險的事業。OpenAI代表全人類肩負著巨大的責任。但在過去幾年\xf9堙A安全文化和流程已經讓位於閃亮的產品。」
此外,能耗問題亦不容忽視。根據國際能源署發布的數據,全球數據中心消耗的電力超過250TWh,約佔全球電力需求的1%,佔全球碳排放的0.3%。預計到2030年,這一數字將達到8%。因此,如何構建新一代數字基礎設施,實現更高效、更智能的能耗治理,提高數據中心的整體能效,事關AI產業的高質量發展。
儘管面臨諸多挑戰,但某些行內人士依舊對AGI時代的到來仍持樂觀態度。「現在我們能夠看到openAI推出的新模型O1已經出現了慢思考、推理的過程,加上腦科學、神經科學的進展,所以我相信AI會越來越接近人類。」也許,AGI的出現只是時間的問題,一旦出現則將會深刻改變人們的生活與工作模式,助力社會各個層面的創新與發展,同時也會給犯罪分子提供新的渠道與手段。