🧠 llmfit — 本地硬件检测与LLM模型推荐
v0.2.2检测本地硬件(RAM、CPU、GPU/VRAM)并推荐最佳本地LLM模型,提供量化优化、速度估计和适配评分。
1· 867·7 当前·7 累计
安全扫描
OpenClaw
可疑
medium confidence该技能的运行指令与其声明目的相符(检测硬件和推荐本地LLM),但安装元数据不一致,Homebrew/cargo安装源不明确——安装或运行二进制前请验证。
评估建议
该技能似乎做了它声称的(运行llmfit CLI并推荐模型),但安装元数据不一致,Homebrew tap是一个第三方源。安装或运行前:1)向维护者询问上游源或GitHub仓库和主页;2)在可信任的仓库中检查Homebrew公式或cargo包代码;3)优先从官方可追踪的发布(GitHub发布或crates.io)安装,而不是匿名tap;4)如果必须先运行二进制,请在沙盒/容器中运行`llmfit --version`和`llmfit --json system`检查输出;5)不要为此工具提供凭据或提升权限。如果您想帮助审核brew公式或包仓库,请提供安装URL,我将指出风险模式。...详细分析 ▾
✓ 用途与能力
名称和描述与运行指令匹配:SKILL.md 告诉代理运行 llmfit CLI 检测硬件并生成模型推荐。所需二进制文件(llmfit)与该目的一致,无不相关的凭据或文件被请求。
✓ 指令范围
指令仅限于运行 llmfit 命令(system、recommend)并将输出映射到本地提供商(Ollama、vLLM、LM Studio)。它们不指示读取任意系统文件或泄露秘密。该技能建议编辑 openclaw.json 配置模型,这与其目标一致。
⚠ 安装机制
安装元数据不一致且潜在风险:SKILL.md / 注册表列出了一个Homebrew公式 'AlexsJones/llmfit'(第三方tap)和一个标记为 'cargo install llmfit' 的第二个安装条目,但被标记为 kind: 'node'(注册表也列出了 'node')。这种不匹配(node vs cargo 标签)很混乱,防止了对安装源的明确审查。来自未知所有者的Homebrew tap 应在使用前进行审查,因为它们从第三方安装二进制文件。
✓ 凭证需求
该技能不请求环境变量或凭据。对于本地硬件检测和推荐工具,这是合理的。
✓ 持久化与权限
always 为 false 且该技能不请求或自动修改其他技能的配置。它仅推荐编辑 openclaw.json(由用户驱动)。根据技能元数据和指令,无需特权或持久存在。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv0.2.22026/2/17
更新了Homebrew安装指令和技能元数据中的公式路径。除了安装方法更新外,无功能或文档更改。
● 无害
安装命令 点击复制
官方npx clawhub@latest install llmfit
镜像加速npx clawhub@latest install llmfit --registry https://cn.clawhub-mirror.com
技能文档
硬件感知的本地 LLM 顾问。检测你的系统配置(RAM、CPU、GPU/VRAM)并推荐真正适合的模型,附带最优量化和速度估算。
适用场景(触发短语)
当用户询问以下问题时立即使用此技能:
- "我能运行什么本地模型?"
- "哪些 LLM 适合我的硬件?"
- "推荐一个本地模型"
- "我的 GPU 最适合什么模型?"
- "我能本地运行 Llama 70B 吗?"
- "配置本地模型"
- "设置 Ollama 模型"
- "什么模型适合我的 VRAM?"
- "帮我选一个本地编程模型"
以下场景也使用此技能:
- 用户想配置
models.providers.ollama或models.providers.lmstudio - 用户提到本地运行模型,你需要知道什么适合
- 需要模型推荐且用户有本地推理能力(Ollama、vLLM、LM Studio)
快速开始
检测硬件
llmfit --json system
返回包含 CPU、RAM、GPU 名称、VRAM、多 GPU 信息以及内存是否统一(Apple Silicon)的 JSON。
获取热门推荐
llmfit recommend --json --limit 5
返回按综合评分(质量、速度、适配、上下文)排名的前 5 个模型,附带检测硬件的最优量化方案。
按用途筛选
llmfit recommend --json --use-case coding --limit 3
llmfit recommend --json --use-case reasoning --limit 3
llmfit recommend --json --use-case chat --limit 3
有效用途:general、coding、reasoning、chat、multimodal、embedding。
按最低适配等级筛选
llmfit recommend --json --min-fit good --limit 10
适配等级(从优到差):perfect、good、marginal。
理解输出
系统 JSON
{
"system": {
"cpu_name": "Apple M2 Max",
"cpu_cores": 12,
"total_ram_gb": 32.0,
"available_ram_gb": 24.5,
"has_gpu": true,
"gpu_name": "Apple M2 Max",
"gpu_vram_gb": 32.0,
"gpu_count": 1,
"backend": "Metal",
"unified_memory": true
}
}
推荐 JSON
models 数组中的每个模型包含:
| 字段 | 含义 |
|---|---|
name | HuggingFace 模型 ID(如 meta-llama/Llama-3.1-8B-Instruct) |
provider | 模型提供商(Meta、Alibaba、Google 等) |
params_b | 参数量(十亿) |
score | 综合评分 0–100(越高越好) |
score_components | 分项:quality、speed、fit、context(各 0–100) |
fit_level | Perfect、Good、Marginal 或 TooTight |
run_mode | GPU、CPU+GPU Offload 或 CPU Only |
best_quant | 硬件最优量化(如 Q5_K_M、Q4_K_M) |
estimated_tps | 预估每秒 token 数 |
memory_required_gb | 此量化所需 VRAM/RAM |
memory_available_gb | 检测到的可用 VRAM/RAM |
utilization_pct | 模型使用可用内存的百分比 |
use_case | 模型设计用途 |
context_length | 最大上下文窗口 |
适配等级说明
- Perfect:模型轻松适配,还有余量。理想选择。
- Good:模型适配但占用大部分可用内存。能正常工作。
- Marginal:模型勉强适配。可能工作但预期更慢的性能或缩减的上下文。
- TooTight:模型不适配。不要推荐。
运行模式说明
- GPU:纯 GPU 推理。最快。模型权重完全加载到 VRAM。
- CPU+GPU Offload:部分层在 GPU,其余在系统 RAM。比纯 GPU 慢。
- CPU Only:所有推理在 CPU 上使用系统 RAM。最慢但无需 GPU。
用结果配置 OpenClaw
获取推荐后,配置用户的本地模型提供商。
Ollama
将 HuggingFace 模型名映射到 Ollama 标签。常见映射:
| llmfit 名称 | Ollama 标签 |
|---|---|
meta-llama/Llama-3.1-8B-Instruct | llama3.1:8b |
meta-llama/Llama-3.3-70B-Instruct | llama3.3:70b |
Qwen/Qwen2.5-Coder-7B-Instruct | qwen2.5-coder:7b |
Qwen/Qwen2.5-72B-Instruct | qwen2.5:72b |
deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct | deepseek-coder-v2:16b |
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B | deepseek-r1:32b |
google/gemma-2-9b-it | gemma2:9b |
mistralai/Mistral-7B-Instruct-v0.3 | mistral:7b |
microsoft/Phi-3-mini-4k-instruct | phi3:mini |
microsoft/Phi-4-mini-instruct | phi4-mini |
openclaw.json:{
"models": {
"providers": {
"ollama": {
"models": ["ollama/"]
}
}
}
}
可选设置为默认:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/"
}
}
}
}
vLLM / LM Studio
直接使用 HuggingFace 模型名作为模型标识符,配合相应的前缀(vllm/ 或 lmstudio/)。
工作流示例
当用户问"我能运行什么本地模型?":
- 运行
llmfit --json system显示硬件概要 - 运行
llmfit recommend --json --limit 5获取热门推荐 - 展示推荐结果,包含评分和适配等级
- 如果用户想配置某个模型,映射到相应的 Ollama/vLLM/LM Studio 标签
- 提议用选择的模型更新
openclaw.json
当用户要求特定用途如"推荐一个编程模型":
- 运行
llmfit recommend --json --use-case coding --limit 3 - 展示编程专用推荐
- 提议通过 Ollama 拉取并配置
注意事项
- llmfit 检测 NVIDIA GPU(通过 nvidia-smi)、AMD GPU(通过 rocm-smi)和 Apple Silicon(统一内存)。
- 多 GPU 设置会自动聚合各卡的 VRAM。
best_quant字段告诉你最优量化——更高量化(Q6_K、Q8_0)意味着如果 VRAM 允许,质量更好。- 速度估算(
estimated_tps)是近似值,因硬件和量化而异。 fit_level: "TooTight"的模型永远不应推荐给用户。
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制