麻省理工學院(MIT)展示一款訓練機器人的新模型,有別於以往使用標準集中數據集來教導機器人新的任務,新方法模仿訓練大型語言模型(LLM),採用數量龐大的數據。
據科技媒體TechCrunch報道,研究人員指出,模仿學習,即智能體透過跟隨執行任務的個體來學習,在引入小挑戰時可能會失敗。這些挑戰或許是燈光、不同的環境、或新的障礙等等。在這些情況下,機器人缺乏充足的數據來應對變化。
麻省理工學院團隊借鑒GPT-4等模型,採取一種依靠大量數據的所謂「蠻力」(brute force)方法來解決問題。最新研究報告的華裔作者Lirui Wang表示:「在語言領域,數據全部都是句子。而在機器人領域,由於數據的異質性,如果我們想用類似的方式進行預訓練,就需要不同的架構。」
該團隊引入了一種稱為「異質預訓練轉換器」(HPT)的新架構,將來自不同感測器和環境的資訊匯集在一起,隨後整合到訓練模型中。轉換器越大,輸出效果越好。
然後,使用者輸入機器人的設計、配置以及想要完成的工作。
卡內基梅隆大學副教授赫爾德(David Held)解釋這項研究:「我們的夢想是擁有一個通用的機器人大腦,讓人下載並用於機器人,並且毋須進行任何培訓。雖然研究目前還處於早期階段,但我們將繼續努力推動,希望藉由擴展帶來機器人政策的突破,誠如大型語言模型所實現的那樣。」本報訊