MNN-Sana-Edit-V2:端侧运行的图像漫画风编辑大模型

2026年4月22日

25

785

MNN-Sana-Edit-V2:端侧运行的图像漫画风编辑大模型

随着生成式人工智能技术的持续演进,端侧部署能力逐渐成为模型落地的重要考量。在图像编辑领域,如何兼顾隐私安全与推理效率一直是技术探索的核心命题。传统云端方案虽然计算资源丰富,但存在数据上传的隐私风险和网络延迟带来的体验问题。端侧部署作为一种可行的技术路径,能够在本地设备上完成复杂AI任务,既保护用户隐私,又提升响应速度。

核心架构设计

MNN-Sana-Edit-V2是由电商平台技术团队联合高校研发的端侧图像编辑大模型,专注于漫画风格转换任务。该模型基于Sana图像生成框架和MetaQuery学术成果构建,采用Qwen3-0.6B作为冻结的预训练LLM,通过Learnable Query和Connector模块桥接文本理解与图像生成过程。在架构设计上,模型融合了Linear DiT线性注意力机制和Deep Compression Autoencoder高效编码器,实现了32倍的压缩比,显著降低了计算开销。依托MNN框架的4/8bit量化部署能力,全部模型可运行于手机端本地。

训练策略与优化

MNN-Sana-Edit-V2的网络架构包含四个关键组件。预训练LLM采用Qwen3-0.6B并保持冻结状态,负责深入理解用户输入的Prompt语义;Learnable Query是一组256维可学习参数,作为桥梁连接文本理解与图像生成过程;Connector模块包含Transformer结构的Connector网络和线性投影层Projector,负责将LLM的语义表示对齐到DiT的输入空间;DiT模块则执行去噪扩散过程,结合参考图像的Latent特征完成风格转换。

端侧AI的意义不仅在于技术突破,更在于让AI能力真正普惠每一位用户

“编辑观点”

端侧部署实践

模型训练采用三阶段递进策略。Stage1预训练阶段使用200万文本-图像对数据训练约10万步,仅更新Learnable Query和Connector权重,以对齐LLM与图像生成任务;Stage2微调阶段基于6万内部数据训练1万步,解锁DiT模块权重;Stage3编辑能力训练阶段使用1万对编辑数据训练10万步,引入参考图像作为额外输入,实现精准的图像编辑能力。

性能测试与实际表现

在端侧部署优化方面,团队先将PyTorch模型转换为ONNX格式,再转为MNN格式,利用MNN框架完善的算子支持实现顺畅转换。量化策略上,LLM采用4bit非对称量化以释放更多计算空间,其他模型采用8bit非对称量化,在性能与效果间取得平衡。真机测试显示,在iPhone 17 Pro上处理512×512图像仅需14.7秒,较OpenAI云端方案的38-45秒提速约2.5倍;Android端一加13机型耗时45秒,整体内存占用约5.5GB。

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI