首页龙虾技能列表 › llmfit — 本地硬件检测与LLM模型推荐

🧠 llmfit — 本地硬件检测与LLM模型推荐

v0.2.2

检测本地硬件(RAM、CPU、GPU/VRAM)并推荐最佳本地LLM模型,提供量化优化、速度估计和适配评分。

1· 867·7 当前·7 累计
by @alexsjones (Alex Jones)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/2/26
安全扫描
VirusTotal
无害
查看报告
OpenClaw
可疑
medium confidence
该技能的运行指令与其声明目的相符(检测硬件和推荐本地LLM),但安装元数据不一致,Homebrew/cargo安装源不明确——安装或运行二进制前请验证。
评估建议
该技能似乎做了它声称的(运行llmfit CLI并推荐模型),但安装元数据不一致,Homebrew tap是一个第三方源。安装或运行前:1)向维护者询问上游源或GitHub仓库和主页;2)在可信任的仓库中检查Homebrew公式或cargo包代码;3)优先从官方可追踪的发布(GitHub发布或crates.io)安装,而不是匿名tap;4)如果必须先运行二进制,请在沙盒/容器中运行`llmfit --version`和`llmfit --json system`检查输出;5)不要为此工具提供凭据或提升权限。如果您想帮助审核brew公式或包仓库,请提供安装URL,我将指出风险模式。...
详细分析 ▾
用途与能力
名称和描述与运行指令匹配:SKILL.md 告诉代理运行 llmfit CLI 检测硬件并生成模型推荐。所需二进制文件(llmfit)与该目的一致,无不相关的凭据或文件被请求。
指令范围
指令仅限于运行 llmfit 命令(system、recommend)并将输出映射到本地提供商(Ollama、vLLM、LM Studio)。它们不指示读取任意系统文件或泄露秘密。该技能建议编辑 openclaw.json 配置模型,这与其目标一致。
安装机制
安装元数据不一致且潜在风险:SKILL.md / 注册表列出了一个Homebrew公式 'AlexsJones/llmfit'(第三方tap)和一个标记为 'cargo install llmfit' 的第二个安装条目,但被标记为 kind: 'node'(注册表也列出了 'node')。这种不匹配(node vs cargo 标签)很混乱,防止了对安装源的明确审查。来自未知所有者的Homebrew tap 应在使用前进行审查,因为它们从第三方安装二进制文件。
凭证需求
该技能不请求环境变量或凭据。对于本地硬件检测和推荐工具,这是合理的。
持久化与权限
always 为 false 且该技能不请求或自动修改其他技能的配置。它仅推荐编辑 openclaw.json(由用户驱动)。根据技能元数据和指令,无需特权或持久存在。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv0.2.22026/2/17

更新了Homebrew安装指令和技能元数据中的公式路径。除了安装方法更新外,无功能或文档更改。

● 无害

安装命令 点击复制

官方npx clawhub@latest install llmfit
镜像加速npx clawhub@latest install llmfit --registry https://cn.clawhub-mirror.com

技能文档

硬件感知的本地 LLM 顾问。检测你的系统配置(RAM、CPU、GPU/VRAM)并推荐真正适合的模型,附带最优量化和速度估算。

适用场景(触发短语)

当用户询问以下问题时立即使用此技能:

  • "我能运行什么本地模型?"
  • "哪些 LLM 适合我的硬件?"
  • "推荐一个本地模型"
  • "我的 GPU 最适合什么模型?"
  • "我能本地运行 Llama 70B 吗?"
  • "配置本地模型"
  • "设置 Ollama 模型"
  • "什么模型适合我的 VRAM?"
  • "帮我选一个本地编程模型"

以下场景也使用此技能:

  • 用户想配置 models.providers.ollamamodels.providers.lmstudio
  • 用户提到本地运行模型,你需要知道什么适合
  • 需要模型推荐且用户有本地推理能力(Ollama、vLLM、LM Studio)

快速开始

检测硬件

llmfit --json system

返回包含 CPU、RAM、GPU 名称、VRAM、多 GPU 信息以及内存是否统一(Apple Silicon)的 JSON。

获取热门推荐

llmfit recommend --json --limit 5

返回按综合评分(质量、速度、适配、上下文)排名的前 5 个模型,附带检测硬件的最优量化方案。

按用途筛选

llmfit recommend --json --use-case coding --limit 3
llmfit recommend --json --use-case reasoning --limit 3
llmfit recommend --json --use-case chat --limit 3

有效用途:generalcodingreasoningchatmultimodalembedding

按最低适配等级筛选

llmfit recommend --json --min-fit good --limit 10

适配等级(从优到差):perfectgoodmarginal

理解输出

系统 JSON

{
  "system": {
    "cpu_name": "Apple M2 Max",
    "cpu_cores": 12,
    "total_ram_gb": 32.0,
    "available_ram_gb": 24.5,
    "has_gpu": true,
    "gpu_name": "Apple M2 Max",
    "gpu_vram_gb": 32.0,
    "gpu_count": 1,
    "backend": "Metal",
    "unified_memory": true
  }
}

推荐 JSON

models 数组中的每个模型包含:

字段含义
nameHuggingFace 模型 ID(如 meta-llama/Llama-3.1-8B-Instruct
provider模型提供商(Meta、Alibaba、Google 等)
params_b参数量(十亿)
score综合评分 0–100(越高越好)
score_components分项:qualityspeedfitcontext(各 0–100)
fit_levelPerfectGoodMarginalTooTight
run_modeGPUCPU+GPU OffloadCPU Only
best_quant硬件最优量化(如 Q5_K_MQ4_K_M
estimated_tps预估每秒 token 数
memory_required_gb此量化所需 VRAM/RAM
memory_available_gb检测到的可用 VRAM/RAM
utilization_pct模型使用可用内存的百分比
use_case模型设计用途
context_length最大上下文窗口

适配等级说明

  • Perfect:模型轻松适配,还有余量。理想选择。
  • Good:模型适配但占用大部分可用内存。能正常工作。
  • Marginal:模型勉强适配。可能工作但预期更慢的性能或缩减的上下文。
  • TooTight:模型不适配。不要推荐。

运行模式说明

  • GPU:纯 GPU 推理。最快。模型权重完全加载到 VRAM。
  • CPU+GPU Offload:部分层在 GPU,其余在系统 RAM。比纯 GPU 慢。
  • CPU Only:所有推理在 CPU 上使用系统 RAM。最慢但无需 GPU。

用结果配置 OpenClaw

获取推荐后,配置用户的本地模型提供商。

Ollama

将 HuggingFace 模型名映射到 Ollama 标签。常见映射:

llmfit 名称Ollama 标签
meta-llama/Llama-3.1-8B-Instructllama3.1:8b
meta-llama/Llama-3.3-70B-Instructllama3.3:70b
Qwen/Qwen2.5-Coder-7B-Instructqwen2.5-coder:7b
Qwen/Qwen2.5-72B-Instructqwen2.5:72b
deepseek-ai/DeepSeek-Coder-V2-Lite-Instructdeepseek-coder-v2:16b
deepseek-ai/DeepSeek-R1-Distill-Qwen-32Bdeepseek-r1:32b
google/gemma-2-9b-itgemma2:9b
mistralai/Mistral-7B-Instruct-v0.3mistral:7b
microsoft/Phi-3-mini-4k-instructphi3:mini
microsoft/Phi-4-mini-instructphi4-mini
然后更新 openclaw.json

{
  "models": {
    "providers": {
      "ollama": {
        "models": ["ollama/"]
      }
    }
  }
}

可选设置为默认:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/"
      }
    }
  }
}

vLLM / LM Studio

直接使用 HuggingFace 模型名作为模型标识符,配合相应的前缀(vllm/lmstudio/)。

工作流示例

当用户问"我能运行什么本地模型?":

  • 运行 llmfit --json system 显示硬件概要
  • 运行 llmfit recommend --json --limit 5 获取热门推荐
  • 展示推荐结果,包含评分和适配等级
  • 如果用户想配置某个模型,映射到相应的 Ollama/vLLM/LM Studio 标签
  • 提议用选择的模型更新 openclaw.json

当用户要求特定用途如"推荐一个编程模型":

  • 运行 llmfit recommend --json --use-case coding --limit 3
  • 展示编程专用推荐
  • 提议通过 Ollama 拉取并配置

注意事项

  • llmfit 检测 NVIDIA GPU(通过 nvidia-smi)、AMD GPU(通过 rocm-smi)和 Apple Silicon(统一内存)。
  • 多 GPU 设置会自动聚合各卡的 VRAM。
  • best_quant 字段告诉你最优量化——更高量化(Q6_K、Q8_0)意味着如果 VRAM 允许,质量更好。
  • 速度估算(estimated_tps)是近似值,因硬件和量化而异。
  • fit_level: "TooTight" 的模型永远不应推荐给用户。
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务