新一代聊天機械人 已上網與公眾對話

Meta人工智能實驗室創建先進「聊天機械人」BlenderBot 3,已放到網上,有興趣可登入blenderbot.ai體驗。Metaa

Meta的人工智能(AI)研究實驗室創建一款先進聊天機械人(chatbot),並已放到網上,開放公眾與它用文字對話,從而收集用戶對其能力的意見。

這款聊天機械人名為BlenderBot 3,公眾可登上https://blenderbot.ai/使用,但目前似乎僅限於美國用戶。

Meta表示,BlenderBot 3不只能進行閒聊,亦可回答大家可能問智能助理的問題,例如談及健康食譜或尋找市內適合兒童的便利設施。

它是一件樣品,建基於Meta之前使用「大型語言模型」(LLM)所作出的工作之上。LLM雖然強大,但是出現瑕疵的文字生成軟件,OpenAI的GPT-3是最廣為人知的例子。與所有LLM一樣,BlenderBot最初透過大量文字數據組受訓練,它會採挖統計模式以生成語言。這類系統已證明了非常靈活,被用於不少用途,包括為程式人員生成代碼或協助作家撰寫他們下一本作品。但這些模型也有嚴重瑕疵︰它們在訓練數據反覆出現偏見,經常對用戶問題發明答案,倘它們成為智能助理恐成問題。

後者問題是Meta特別想要BlenderBot測試的事。這款聊天機械人的一大特色,是它能夠為了聊特定題目而搜尋互聯網。更重要的是,用戶之後可點擊它的回應了解它從哪\xf9塈鋮鼽穈T,換句話說BlenderBot 3能引述來源。

透過向普羅大眾公開這款聊天機械人,Meta想就LLM面對的不同問題收集意見。與BlenderBot聊天的用戶可檢舉該系統任何可疑回應,Meta稱它致力「降低這款聊天機械人使用粗俗、詆譭和欠缺文化敏感度的言論。用戶必須允許他們數據被收集,他們的對話和回應就會被儲存,然後由Meta公開由一般AI研究社群使用。

有份創建BlenderBot 3的Meta研究工程師舒斯特(Kurt Shuster)告訴科技新聞網站The Verge︰「我們致力向外公開所有我們透過樣品所收集的數據,盼能夠改善對話式AI。」

向外公開樣品聊天機械人過去對科技公司來說是風險舉動。微軟2016年於推特發布一款聊天機械人Tay,以了解它與公眾的互動。正如部份人預期,推特用戶很快指導Tay反覆作出連串種族主義、反猶和厭女言論,迫使微軟不足24小時內將機械人下架。Meta認為,AI世界自Tay出現問題後已改變不少,又稱BlenderBot擁有所有安全措施,防止Meta重蹈微軟的覆徹。

科技-三藩市版