Multiverse Computing 獲得 2.15 億美元資金,以革新 AI 的成本效率

Multiverse Computing 獲得 2.15 億美元資金,以革新 AI 的成本效率

目錄

您可能想知道

  • CompactifAI 如何幫助降低 AI 模型成本?
  • Multiverse 的技術有哪些潛在應用?

主要議題

在科技業的一次大膽舉措中,西班牙初創公司 Multiverse Computing 成功結束了一輪高達 1.89 億歐元(約 2.15 億美元)的 B 輪融資。這筆資金以一項名為“CompactifAI”的突破性技術為基礎,該公司聲稱可以在不影響性能的情況下壓縮大型語言模型(LLMs)高達 95%。此創新將大幅降低 AI 成本,通過簡化大型 AI 操作所需的資源。

CompactifAI 受量子計算原理啟發,承諾將在知名的開源 LLMs 上帶來重大進步,如 Llama 4 Scout 和 Mistral Small 3.1。Multiverse 計劃很快拓展更多的開源模型,強調來自像 OpenAI 這樣公司的專有模型目前不被支持。這些壓縮的模型稱為“苗條版”,可通過亞馬遜網路服務或本地部署獲得,速度比典型模型快 4 至 12 倍,從而將推理成本削減了驚人的 50%-80%。

值得注意的是,這些苗條模型的潛能延伸到傳統計算應用之外。它們的效率和減小的大小意味著它們可以在多種設備上運行,從個人電腦和智能手機到車輛、無人機,甚至 Raspberry PI,使其對愛好者和技術愛好者都易於使用。

Multiverse 的力量不僅在於其技術,還在於其創始團隊和投資者的支持。CTO Román Orús,在量子啟發計算領域是一位著名人物,對深度學習模型壓縮的張量網絡進行了改編。CEO Enrique Lizaso Olmos,帶來了來自金融行業的豐富經驗。由 Bullhound 資本和 HP 技術創投等著名投資者支持之下,Multiverse Computing 的覆蓋面和能力十分廣泛,擁有 160 項專利和 100 個全球客戶,包括像 Iberdrola 和 Bosch 這樣的大公司。

關鍵洞察表

方面 描述
CompactifAI 技術 能夠將 AI 模型縮小 95% 而不影響性能,大幅降低成本。
模型可用性 可通過 AWS 或本地取得,實現 4x-12x 的速度提升。

後續...

展望未來,Multiverse Computing 的方法可能成為推動多領域 AI 發展的催化劑。透過促進更容易使用強大 AI 模型,這項技術可能使 AI 能力平民化,讓創新在緊湊且節能的設備上成為可能。隨著 AI 需求增長,了解和投資類似的量子啟發技術可能鋪平全球各行業通向更可持續和易於接觸的 AI 解決方案的道路。

最後編輯時間:2025/6/12

數字匠人

閒散過客