📦 Local Model Quantization Router — 本地模型量化路由器
v1.0.0根据硬件、隐私、任务复杂度、上下文长度和预算,推荐本地 LLM 模型路由与量化等级。适用于 Qwen/Ollama/…
0· 26·0 当前·0 累计
运行时依赖
无特殊依赖
安装命令
点击复制官方npx clawhub@latest install local-model-quantization-router
镜像加速npx clawhub@latest install local-model-quantization-router --registry https://cn.longxiaskill.com镜像同步中
技能文档
本地模型量化路由器 使用此技能可在运行 OpenClaw 工作负载前,在本地量化模型与云端回退之间做出选择。
工作流
- 描述可用硬件与任务需求。
- 通过 CLI 标志或 JSON 输入运行 scripts/local_model_quantization_router.py。
- 查看推荐的模型族、量化等级、端点、回退方案及风险说明。
- 将输出作为本地优先或隐私优先部署的路由依据。
参数 --task TEXT:任务摘要。 --complexity {simple,standard,complex,critical}:任务复杂度。 --privacy {low,normal,high,regulated}:隐私级别。 --vram-gb FLOAT:可用 GPU 显存(GB)。 --ram-gb FLOAT:可用系统内存(GB)。 --context-tokens INT:所需上下文长度。 --hardware PATH:可选 JSON,包含 vram_gb、ram_gb、cpu_only。 --output PATH:可选 JSON 输出路径。
输出 route:local-only、local-first、hybrid 或 cloud-required。 model:推荐模型族。 quantization:建议量化等级。 endpoint:建议本地端点类型。 fallback:质量或上下文不足时的安全回退。 reasons:决策依据。
不下载模型,不修改配置文件。