《AI Agent生产力部署指南:OpenClaw + vLLM 本地化实战——(三)OpenClaw与LLM工具链适配》

张开发
2026/4/10 3:14:48 15 分钟阅读

分享文章

《AI Agent生产力部署指南:OpenClaw + vLLM 本地化实战——(三)OpenClaw与LLM工具链适配》
上一章节中我们完整介绍了如何在服务器中配置vLLM服务,如何运行vLLM,以及如何搭建本地机器作为中间跳转连接虚拟机与服务器的通信。本章第五节完成最后一个步骤对openclaw的相关配置,让本地能成功对话虚拟机,虚拟机成功调用服务器模型。下面直接开始吧!(五)配置openclaw中自定义模型的使用前面我们搞定了vLLM的配置,并且实现了三台机器的消息转发,但是如上一节内容最后提到的网页界面显示了未知模型,所以这一小节我们来配置【.openclaw/openclaw.json】,适配我们前面vLLM所使用的Qwen3.5-27B-FP8模型,以及在网页中完成对vLLM的调用。!!!重点注意,由于openclaw的版本迭代可能造成莫名的问题,所以下面的配置思路是主动参与了解的步骤方法一,强烈建议先按方法一熟悉一遍;本小节最后会给出方法二,一个完整简化的openclaw.json文件,如果方法一最后有出入,你可以直接简单修改覆盖原来json即可使用,后续的组件功能增加再做下一步的研究,先让整个系统正常运行起来。《方法一,按步骤实践配置并了解问题》还记的在vLLM代码中的【model_name】参数吗?这是openclaw查找模型的唯一id,所以openclaw.json中几个重要参数要注意:baseUrl:访问本地ip和端口的地址(跳转地址);apiKey:自己部署的大模型不需要秘钥,可以设置为EMPTY;id:vLLM中的模型名,也就是model_name;contextWindow:最大容量token数,根据你的模型大小来定,可以与vLLM中的max-model-len参数一致,不能低于16000;maxTokens:模型回答容量token;input:模型支持的类型,通常text表示支持文本,image表示支持图像(也就是多模态,这里qwen3.5就是多模态),根据使用模型决定填写;大模型的上下文窗口(Context Window)公式是:最大容量 (32768) = 你的提问 (Input) + 预留给它回答的空间 (Output / maxTokens)正常人一次聊天最多也就回答 1000~2000 个 Token,预留4096足以,多给模型留些。所以我们需要在openclaw.json的一级结构中添加models模块,自定义创建一个我们配置的模型,该模块可以放在agents上方(位置不影响,最后会有完整配置信息展示),例如结合我这里的模型使用情况,模块内容如下所示:"models": { "mode": "merge", "providers": { "vllm_local": { "baseUrl": "http://172.23.20.15:8000/v1", "apiKey": "EMPTY", "api": "openai-completions", "models":[ { "id": "qwen", "name": "Qwen3.5-27B-FP8", "contextWindow": 32768, "maxTokens": 4096,

更多文章