有別GPT Liquid AI研發多模態基礎模型

Liquid AI將於23日舉行新產品發布會。Liquid AI

Liquid AI是一家由麻省理工學院(MIT)電腦科學及人工智能實驗室(CSAIL)前研究人員共同創立的新創公司,宣布推出首款多模態AI模型「Liquid基礎模型」(LFM),將於23日公開發布新產品。

有別於當前生成式AI浪潮中的大多數模型為「生成性預訓練變換模型」(GPT),Liquid志在探索GPT基礎以外的方法,透過其自設的基礎模型,特別是從「基礎原理」著手,如同工程師建造引擎、汽車和飛機的方式進行構建。

根據Liquid宣布,其基礎模型在性能上已經超越其他同等規模的基於變換的模型,例如Meta的Llama 3.1-8B和微軟的Phi-3.5 3.8B。

Liquid基礎模型目前有三種不同的尺寸和變體:1.3B(最小型)、3B及40B MoE(最大型)。

Liquid AI 表示,LFM 1.3B版本在許多主要的第三方基準測試結果,都超越了Meta的新款Llama 3.2-1.2B和微軟的Phi-1.5,包括廣受歡迎的「大型多任務語言理解(MMLU)。

這三款產品旨在提供最先進的性能,同時優化記憶體效率,其中Liquid的LFM-3B僅需16 GB的記憶體,而Meta的Llama-3.2-3B模型則需要超過48 GB的記憶體。

這些模型的設計不僅在原始性能基準上具有競爭力,而且在運作效率方面也非常優秀,使其成為各種用例的理想選擇,從針對金融服務、生物技術和消費電子產品等企業級應用程式,到在邊緣設備上的部署,這些模型也不是開源。本報訊

科技-三藩市版