Mistral AI 今日宣布推出 Mistral 3 系列開源多語言、多模態模型,該系列模型針對 NVIDIA 超級運算與邊緣平台進行最佳化。
Mistral Large 3 為混合專家(MoE)模型,無需為每個詞元啟動所有神經元,而是僅啟動模型中最具影響力的部分。此設計在不浪費資源的情況下實現規模化,並在不犧牲準確性的前提下實現高效運作,使企業級人工智慧(AI)不僅成為可能,而且具備真正實用性。
Mistral AI 的全新模型為企業級 AI 提供業界領先的準確性和效率。從 12 月 2 日(星期二)開始,該模型將在雲端、資料中心和邊緣等各種環境中啟用。
憑藉 410 億個有效參數、6,750 億總參數及大型的25.6萬情境窗口(context window),Mistral Large 3 將為企業AI工作負載提供可擴展性、高效能與適應性。
透過結合 NVIDIA GB200 NVL72 系統和 Mistral AI 的混合專家架構,企業可以高效部署和擴展大規模 AI 模型,並從先進的平行處理和硬體最佳化中受益。
這樣的結合標誌著此次發布正邁向 Mistral AI 所稱的「分散式智慧(distributed intelligence)」時代,進一步彌合研究突破與現實應用之間的差距。

$(document).ready(function () {nstockStoryStockInfo();});