Mistral AI 今日宣布推出 Mistral 3 系列开源多语言、多模态模型,该系列模型针对 NVIDIA 超级运算与边缘平台进行最佳化。
Mistral Large 3 为混合专家(MoE)模型,无需为每个词元启动所有神经元,而是仅启动模型中最具影响力的部分。此设计在不浪费资源的情况下实现规模化,并在不牺牲准确性的前提下实现高效运作,使企业级人工智慧(AI)不仅成为可能,而且具备真正实用性。
Mistral AI 的全新模型为企业级 AI 提供业界领先的准确性和效率。从 12 月 2 日(星期二)开始,该模型将在云端、资料中心和边缘等各种环境中启用。
凭借 410 亿个有效参数、6,750 亿总参数及大型的25.6万情境窗口(context window),Mistral Large 3 将为企业AI工作负载提供可扩展性、高效能与适应性。
透过结合 NVIDIA GB200 NVL72 系统和 Mistral AI 的混合专家架构,企业可以高效部署和扩展大规模 AI 模型,并从先进的平行处理和硬体最佳化中受益。
这样的结合标志著此次发布正迈向 Mistral AI 所称的「分散式智慧(distributed intelligence)」时代,进一步弥合研究突破与现实应用之间的差距。

$(document).ready(function () {nstockStoryStockInfo();});