安全扫描
OpenClaw
安全
medium confidence该技能的说明与要求符合本地 LLM 推荐工具定位,但依赖外部二进制/镜像和本地更新脚本,执行前需自行验证。
评估建议
该技能功能与描述一致(推荐本地 LLM),但默认你已安装 'llmfit' CLI 并可选用 Docker,会建议运行本地更新脚本并拉取 Docker 镜像。安装或调用前:(1) 核查 llmfit 项目及 ghcr.io/alexsjones 镜像的源码仓库;(2) 先检查它让你运行的脚本(如 update_models.sh)再执行——它们可执行任意命令;(3) 若不信任外部镜像或脚本,请在 sandbox/VM 中运行;(4) 如需自动调用,确保 agent 只能执行已审核的安全命令。若需更高保障,先手动获取 llmfit 二进制或自行运行推荐命令。...详细分析 ▾
ℹ 用途与能力
SKILL.md 始终描述推荐本地 LLM、量化及硬件感知匹配,指令调用 'llmfit' CLI 并引用 llama.cpp、MLX、Docker 等运行时;但技能元数据未声明需 'llmfit' CLI 或 Docker,存在轻微不符,应补充前置条件说明。
ℹ 指令范围
运行指令主要执行 'llmfit' 命令探测硬件并推荐模型,属于功能范围;同时包含进入用户工作区并执行 ./scripts/update_models.sh 及 docker run 拉取 ghcr.io/alexsjones/llmfit 镜像。运行此类更新脚本或容器可在宿主机执行任意代码,因此需先经用户审核方可让 agent 执行本地脚本/容器操作。
ℹ 安装机制
无安装脚本(仅指令),风险较低。文档引用外部 Docker 镜像(ghcr.io)与 GitHub 仓库;虽非捆绑安装器,但拉取/运行该镜像或执行仓库脚本会获取并运行远程代码,需先行验证。
✓ 凭证需求
技能在注册元数据中未请求环境变量、凭据或配置路径。指令引用特定用户路径并允许传入硬件参数,但不索取机密,访问请求与声明用途相符。
✓ 持久化与权限
always 为 false,未请求安装时持久化。技能亦未申请提升或永久平台权限。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/4/20
llmfit-advisor 1.0.0 - 基于 llmfit 的 OpenClaw Agent 本地 LLM 模型推荐技能初始发布。 - 支持按硬件感知为编程、聊天、推理及通用场景推荐模型。 - 提供量化建议、多运行时兼容及系统自动硬件检测。 - 给出模型选择、性能匹配与系统信息获取的 CLI 用法示例。 - 包含详细用法示例、参数说明与故障排除章节。
● 无害
安装命令
点击复制官方npx clawhub@latest install llmfit-advisor
镜像加速npx clawhub@latest install llmfit-advisor --registry https://cn.longxiaskill.com
技能文档
基于 LLMfit 的本地 LLM 模型推荐技能
版本: 0.9.8
类型: Experience/Skill
🎯 功能概述
这个技能让 OpenClaw Agent 能够:
- 智能推荐 - 根据系统硬件配置推荐最适合的 LLM 模型
- 场景优化 - 支持通用、编码、推理、聊天等多种使用场景
- 量化建议 - 推荐最佳量化方案(Q8_0, Q2_K, FP8 等)
- 硬件感知 - 自动检测 CPU、RAM、GPU 配置
- 多运行时 - 支持 Ollama、llama.cpp、MLX、Docker Model Runner、LM Studio
🚀 快速开始
使用 llmfit 推荐模型
Agent 可以调用 llmfit 命令获取模型推荐:
llmfit recommend --json --use-case coding --limit 5
llmfit recommend --json --use-case chat --limit 5
llmfit recommend --json --use-case general --limit 5
获取最佳匹配
llmfit fit --perfect -n 5 # 完美匹配的 5 个模型
llmfit fit --good -n 10 # 良好匹配的 10 个模型
系统信息
llmfit --json system # 系统硬件信息
💡 使用场景
场景 1: 用户询问适合的设备
用户: "我有什么设备可以运行什么模型?"
Agent 回答:
让我检查一下你的系统配置...
llmfit recommend --json --limit 3
场景 2: 编码助手推荐
用户: "我想找一个适合写代码的大模型"
Agent 回答:
让我为你推荐一个适合编码场景的模型...
llmfit recommend --json --use-case coding --limit 5
场景 3: 根据硬件配置优化
用户: "我只有 16GB 内存,有什么推荐吗?"
Agent 回答:
根据你的硬件配置,我推荐以下模型...
llmfit --ram=16G recommend --json --limit 5
🔧 命令参数详解
llmfit recommend --json
基本用法:
llmfit recommend --json [选项]
选项:
--use-case- 使用场景:general|coding|reasoning|chat|multimodal|embedding--limit- 返回数量(默认 5)--force-runtime- 强制运行时:llamacpp|mlx|vllm--context- 上下文长度:2048|4096|8192|16384|32768|65536|131072--json- JSON 格式输出
llmfit fit
基本用法:
llmfit fit --perfect -n 5
llmfit fit --good -n 10
选项:
--perfect- 只返回完美匹配的模型--good- 返回良好匹配的模型--marginal- 返回勉强可用的模型-n- 返回数量
llmfit system --json
基本用法:
llmfit system --json
📊 返回数据格式
推荐模型数据结构
{
"models": [
{
"name": "Qwen/Qwen3-Coder-30B-A3B-Instruct",
"parameter_count": "30.5B",
"best_quant": "Q8_0",
"estimated_tps": 18.4,
"fit_level": "Marginal",
"score": 86.5,
"use_case": "Code generation and completion",
"run_mode": "CPU",
"runtime": "llama.cpp"
}
]
}
评分成分
- quality - 模型质量评分 (0-100)
- fit - 硬件匹配度 (0-100)
- speed - 预期速度评分 (0-100)
- context - 上下文长度评分 (0-100)
🎨 使用技巧
1. 根据场景选择
| 场景 | 参数 | 说明 |
|---|---|---|
| 通用 | --use-case general | 适合日常使用 |
| 编码 | --use-case coding | 适合代码生成和补全 |
| 推理 | --use-case reasoning | 适合逻辑推理任务 |
| 聊天 | --use-case chat | 适合对话交互 |
2. 硬件优化
# 指定 RAM 容量 llmfit --ram=16G recommend --json# 指定 GPU VRAM llmfit --memory=24G recommend --json
# 指定 CPU 核心数 llmfit --cpu-cores=16 recommend --json
3. 上下文长度
# 长上下文推荐 llmfit --context=131072 recommend --json
# 特定模型定制 llmfit plan "Qwen/Qwen2.5-Coder-14B-Instruct" --context=8192
🔍 常见问题
Q: 为什么推荐都是 CPU-only?
A: 你的系统 GPU VRAM 无法被自动检测。如果 GPU 正常,可以尝试手动指定:
llmfit --memory=16G --json system
Q: 如何获取已安装的模型?
A: 使用 llmfit list 命令列出已安装模型
Q: 如何刷新模型数据库?
A: 运行更新脚本:
cd C:/Users/admin/.openclaw/workspace/llmfit
./scripts/update_models.sh
Q: 如何在 Docker 中使用?
A: 使用官方 Docker 镜像:
docker run ghcr.io/alexsjones/llmfit --version
📚 更多资源
- 官方文档: https://github.com/AlexsJones/llmfit
- 模型库: https://huggingface.co
- 量化说明: Q8_0, Q4_K_M, Q2_K, FP8 等
作者: AlexsJones (llmfit 原作者) OpenClaw 集成: 基于官方 skill 包 许可证: MIT