马斯克盛赞阿里AI:小模型逆袭,9B参数比肩120B大模型

2026年3月12日

95

743

马斯克盛赞阿里AI:小模型逆袭,9B参数比肩120B大模型

AI领域又传来令人振奋的消息。阿里通义千问团队近日在X平台正式发布Qwen3.5小模型系列,覆盖0.8B、2B、4B和9B四个参数规格。这批模型甫一发布便在海外科技圈引发强烈反响,特斯拉CEO埃隆·马斯克也在该推文下评论称:「Impressive intelligence density」(令人印象深刻的智能密度)。这一评价背后,是业界对小型模型在特定场景下能够媲美甚至超越大型模型的重新审视。

架构创新:效率与性能的平衡之道

小模型也能如此强大

性能实测:小身材,大能量

Qwen3.5系列的核心创新在于其独特的混合注意力架构。官方资料显示,该系列采用「门控增量网络与稀疏混合专家」相结合的架构设计,注意力层以3:1的比例排列,即3个Gated DeltaNet层搭配1个Gated Attention层。这一设计的关键在于模型在前向传播时只激活对当前任务必要的网络部分,而非进行全量计算,从而在极低延迟与算力开销下实现高吞吐推理。 在多模态能力方面,Qwen3.5采用了「早期融合」训练机制——文本、图像、视频在底层就一起处理,而非在文本模型上事后挂载视觉编码器。这个差异直接决定了小参数模型在视觉问答、OCR文档理解等任务上,能够打出远超同量级传统轻量多模态模型的表现。全系列同时支持长达26万Token的上下文窗口,并引入「思考」与「非思考」双模式,可在深度逻辑推理与快速响应之间灵活切换。

科技改变生活

“Pimjolabs”

各型号定位与场景覆盖

0.8B与2B模型均为24层结构,隐藏维度分别为1024和2048,专为物联网设备等极端边缘场景设计,也可直接在主流手机上原生运行。尽管0.8B在语言基准MMLU-Pro上得分29.7表现平平,但受益于早期融合架构,其在视觉任务MathVista上达到62.2,OCRBench达到74.5,展现出与参数量不相称的视觉理解能力。2B模型的OCRBench进一步提升至84.5,表现亮眼。 4B模型为32层结构,隐藏维度2560,能够流畅运行于消费级移动硬件,官方将其定性为「出乎意料强大的多模态轻量智能体底座」。9B模型则更进一步,同为32层结构但隐藏维度提升至4096,FFN维度扩展至12288,可以在Mac上流畅运行。其MMLU-Pro得分达到82.5,不仅超越了参数量为其三倍的上一代Qwen3-30B,在视觉任务上更以两位数优势超过GPT-5-Nano与Gemini 2.5 Flash Lite。MMMU-Pro得分高达70.1,MathVision达到78.9,充分证明了其在复杂物理和数学图像解析上的实力。

开发者社区的热烈响应

海外开发者对这批模型的实际表现给出了高度正面的评价。有开发者直言,称其为「小模型」不过是低估了它,就好比把飓风叫做微风。另有观点认为,真正值得关注的指标是每十亿参数所能释放的智能密度——如今只需3万美元的硬件,就能跑出一年前需要20万美元GPU配置才有的推理能力。 已有开发者演示了在iPhone 17 Pro上通过针对Apple Silicon优化的MLX框架本地运行Qwen3.5-2B 6-bit版本,模型可实时完成视觉理解与问答任务。知名开源推理工具Ollama也迅速跟进,官宣支持Qwen3.5全系四个尺寸,只需一行命令即可拉取运行。 对于普通用户而言,可通过PocketPal AI这款手机应用直接下载并在本地运行Qwen3.5系列模型,无需任何API,模型推理全程在设备端完成。在选择量化版本时,建议可用内存长期能剩6GB以上优先选IQ4_NL;可用内存常在3GB至5GB之间优先选Q3_K_M。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI