Ollama v0.18.2 版本发布:OpenClaw 安装优化、Claude 加速、MLX 量化全面升级

2026年3月20日

88

277

Ollama v0.18.2 版本发布:OpenClaw 安装优化、Claude 加速、MLX 量化全面升级

2026年3月19日,Ollama 正式推出 v0.18.2 最新版本。本次更新聚焦于本地运行效率、依赖检查、模型适配、插件注册、会话管理、界面兼容、云端代理流式处理以及 MLX 推理架构等多个核心模块,全面修复了历史版本中的多项问题,同时对底层推理、模型加载、工具集成逻辑进行深度重构,极大提升了 OpenClaw、Claude Code、Ollama 本地模型、云端模型的使用稳定性与运行速度。

OpenClaw 工具链全面优化

本次版本开发包含 10 次代码提交,39 个文件被修改,5 位贡献者参与开发,总计 2278 行代码新增,404 行代码删除。版本开发集中在 3 月 17 日至 3 月 19 日,属于密集迭代、快速修复的版本,核心解决了 OpenClaw 依赖缺失、Claude Code 本地运行缓存失效、Ollama 启动指定模型不生效、联网搜索插件注册异常、无界面 Linux 系统登录异常、MLX 模型推理、量化、显存管理等关键问题。

Claude Code 本地运行速度大幅提升

OpenClaw 作为 Ollama 集成的重要工具,在 v0.18.2 中得到了全方位修复与完善。首先,在安装前增加了 npm 与 git 依赖检查。旧版本中用户安装 OpenClaw 时只会检查 npm 是否存在,如果缺少 git 依然会导致安装失败,且报错信息不清晰。新版本对 ensureOpenClawInstalled 函数进行重构,同时检查 npm 和 git 是否安装,任意一个依赖缺失都会直接抛出明确的错误提示,并附带官方下载地址,彻底解决了新手部署 OpenClaw 时因缺少 git 导致安装失败、无从排查的问题。

Ollama v0.18.2 虽然是小版本迭代,但却是极其偏向实用性、稳定性、兼容性的重磅更新,几乎覆盖了用户日常使用中所有高频痛点。

“技术观察”

云端模型与无界面环境支持

Claude Code 本地运行慢、缓存频繁失效,是旧版本用户反馈最多的问题之一。ollama v0.18.2 从缓存机制入手解决问题,在 cmd/launch/claude.go 中新增环境变量 CLAUDE_CODE_ATTRIBUTION_HEADER=0,该配置的作用是关闭 Claude 归因请求头,避免因请求头变化导致 KV 缓存失效。本地运行 Claude Code 时,缓存可以持续复用,推理速度显著提升,减少重复计算。对于重度使用 Claude Code 进行本地开发、代码生成、项目重构的用户,这一改动可以直接带来 30%至 80%的速度提升,尤其是长文本、长代码生成场景。

MLX 架构深度重构

在云端模型方面,ollama v0.18.2 对内置推荐云端模型进行迭代,将 minimax-m2.5:cloud 全面升级为 minimax-m2.7:cloud,所有相关代码、配置、测试用例全部同步修改。同时,针对无界面 Linux 系统登录问题进行了修复,旧版本在 headless Linux 环境下登录功能会异常崩溃或无法打开链接。新版本判断系统是否为无界面环境,如果是则跳过打开浏览器逻辑,终端正常输出登录链接,用户可手动复制到本地浏览器登录。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI