深度测评MiniMax M2.7:国产大模型的真实实力探究

2026年3月20日

80

668

深度测评MiniMax M2.7:国产大模型的真实实力探究

随着国产大模型竞争日趋激烈,各家厂商纷纷亮出自家的最新力作。近期,MiniMax推出了M2.7版本,在多个基准测试中表现亮眼。值得注意的是,在实时更新的Agent任务评测榜上,M2.7已攀升至全球第四位。不同于传统benchmark侧重于模型回答的准确性,Agent任务更注重模型完成完整工作流程的能力,这也更能反映模型在真实场景中的实用价值。

多步骤任务执行测试

本次测评设计了六大核心场景,从多步骤任务执行、创意内容生成到专业编程能力,对M2.7进行全面考验。测试平台涵盖MaxClaw、Claude Code及MiniMax Agent网页端,力求还原真实的业务使用场景。

创意视频生成能力

随后测试模型的创意内容生成能力。要求M2.7使用libtv-skills工具生成一部40秒的短漫剧,主题为《像素荒原》,需融合实拍与低多边形CGI的实时混合渲染风格。结果显示,从剧本创作、分镜设计到视频合成的全流程均由M2.7独立驱动完成,最终成片效果令人满意。值得注意的是,若不明确指定调用skill工具,模型会生成镜头片段而非完整视频,这提示我们在实际使用中需注意提示词的精确表述。

AI自动化的飞轮一旦转动,模型能力的迭代速度将远超预期。

“行业观察”

编程与前端开发能力

在专业办公场景测试中,要求M2.7基于腾讯2025年财报构建营收模型并生成完整的研究报告。模型完成了Excel财务模型(含业绩总览、收入分析、估值分析等模块)、近万字的Word研报以及PPT演示文稿。值得注意的是,近万字的长文本输出中未出现任何幻觉问题,数据准确性也经过了抽查验证。虽然复杂图表和格式排版存在小幅改进空间,但模型已完成了最耗时的数据搜索和整理工作,预计可为分析师节省至少半天工作量。

专业办公场景测试

整体而言,M2.7在各个环节都展现出显著进步。从代码生成到Agent能力,从工具调用到长程任务处理,模型表现全面且稳定。更值得关注的是,M2.7是MiniMax首个由AI深度参与迭代的模型——采用Agent harness系统进行自动化训练和评测,形成模型自我优化的数据飞轮。这意味着M2.7可能只是起点,随着AI自动化训练体系的不断完善,后续版本更值得期待。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI