📦 Llmfit — 本地模型智选

v1.0.0

基于硬件配置与使用场景,智能推荐最适合的本地大模型及量化方案,支持 llama.cpp、MLX、Docker 等多运行时,自动检测系统信息并给出性能匹配建议。

0· 20·1 当前·1 累计
下载技能包
最后更新
2026/4/20
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
medium confidence
该技能的说明与要求符合本地 LLM 推荐工具定位,但依赖外部二进制/镜像和本地更新脚本,执行前需自行验证。
评估建议
该技能功能与描述一致(推荐本地 LLM),但默认你已安装 'llmfit' CLI 并可选用 Docker,会建议运行本地更新脚本并拉取 Docker 镜像。安装或调用前:(1) 核查 llmfit 项目及 ghcr.io/alexsjones 镜像的源码仓库;(2) 先检查它让你运行的脚本(如 update_models.sh)再执行——它们可执行任意命令;(3) 若不信任外部镜像或脚本,请在 sandbox/VM 中运行;(4) 如需自动调用,确保 agent 只能执行已审核的安全命令。若需更高保障,先手动获取 llmfit 二进制或自行运行推荐命令。...
详细分析 ▾
用途与能力
SKILL.md 始终描述推荐本地 LLM、量化及硬件感知匹配,指令调用 'llmfit' CLI 并引用 llama.cpp、MLX、Docker 等运行时;但技能元数据未声明需 'llmfit' CLI 或 Docker,存在轻微不符,应补充前置条件说明。
指令范围
运行指令主要执行 'llmfit' 命令探测硬件并推荐模型,属于功能范围;同时包含进入用户工作区并执行 ./scripts/update_models.sh 及 docker run 拉取 ghcr.io/alexsjones/llmfit 镜像。运行此类更新脚本或容器可在宿主机执行任意代码,因此需先经用户审核方可让 agent 执行本地脚本/容器操作。
安装机制
无安装脚本(仅指令),风险较低。文档引用外部 Docker 镜像(ghcr.io)与 GitHub 仓库;虽非捆绑安装器,但拉取/运行该镜像或执行仓库脚本会获取并运行远程代码,需先行验证。
凭证需求
技能在注册元数据中未请求环境变量、凭据或配置路径。指令引用特定用户路径并允许传入硬件参数,但不索取机密,访问请求与声明用途相符。
持久化与权限
always 为 false,未请求安装时持久化。技能亦未申请提升或永久平台权限。
安全有层次,运行前请审查代码。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/4/20

llmfit-advisor 1.0.0 - 基于 llmfit 的 OpenClaw Agent 本地 LLM 模型推荐技能初始发布。 - 支持按硬件感知为编程、聊天、推理及通用场景推荐模型。 - 提供量化建议、多运行时兼容及系统自动硬件检测。 - 给出模型选择、性能匹配与系统信息获取的 CLI 用法示例。 - 包含详细用法示例、参数说明与故障排除章节。

无害

安装命令

点击复制
官方npx clawhub@latest install llmfit-advisor
镜像加速npx clawhub@latest install llmfit-advisor --registry https://cn.longxiaskill.com

技能文档

基于 LLMfit 的本地 LLM 模型推荐技能
版本: 0.9.8
类型: Experience/Skill

🎯 功能概述

这个技能让 OpenClaw Agent 能够:

  • 智能推荐 - 根据系统硬件配置推荐最适合的 LLM 模型
  • 场景优化 - 支持通用、编码、推理、聊天等多种使用场景
  • 量化建议 - 推荐最佳量化方案(Q8_0, Q2_K, FP8 等)
  • 硬件感知 - 自动检测 CPU、RAM、GPU 配置
  • 多运行时 - 支持 Ollama、llama.cpp、MLX、Docker Model Runner、LM Studio

🚀 快速开始

使用 llmfit 推荐模型

Agent 可以调用 llmfit 命令获取模型推荐:

llmfit recommend --json --use-case coding --limit 5
llmfit recommend --json --use-case chat --limit 5
llmfit recommend --json --use-case general --limit 5

获取最佳匹配

llmfit fit --perfect -n 5   # 完美匹配的 5 个模型
llmfit fit --good -n 10     # 良好匹配的 10 个模型

系统信息

llmfit --json system  # 系统硬件信息

💡 使用场景

场景 1: 用户询问适合的设备

用户: "我有什么设备可以运行什么模型?"

Agent 回答:

让我检查一下你的系统配置...
llmfit recommend --json --limit 3

场景 2: 编码助手推荐

用户: "我想找一个适合写代码的大模型"

Agent 回答:

让我为你推荐一个适合编码场景的模型...
llmfit recommend --json --use-case coding --limit 5

场景 3: 根据硬件配置优化

用户: "我只有 16GB 内存,有什么推荐吗?"

Agent 回答:

根据你的硬件配置,我推荐以下模型...
llmfit --ram=16G recommend --json --limit 5

🔧 命令参数详解

llmfit recommend --json

基本用法:

llmfit recommend --json [选项]

选项:

  • --use-case - 使用场景:general | coding | reasoning | chat | multimodal | embedding
  • --limit - 返回数量(默认 5)
  • --force-runtime - 强制运行时:llamacpp | mlx | vllm
  • --context - 上下文长度:2048 | 4096 | 8192 | 16384 | 32768 | 65536 | 131072
  • --json - JSON 格式输出

llmfit fit

基本用法:

llmfit fit --perfect -n 5
llmfit fit --good -n 10

选项:

  • --perfect - 只返回完美匹配的模型
  • --good - 返回良好匹配的模型
  • --marginal - 返回勉强可用的模型
  • -n - 返回数量

llmfit system --json

基本用法:

llmfit system --json

📊 返回数据格式

推荐模型数据结构

{
  "models": [
    {
      "name": "Qwen/Qwen3-Coder-30B-A3B-Instruct",
      "parameter_count": "30.5B",
      "best_quant": "Q8_0",
      "estimated_tps": 18.4,
      "fit_level": "Marginal",
      "score": 86.5,
      "use_case": "Code generation and completion",
      "run_mode": "CPU",
      "runtime": "llama.cpp"
    }
  ]
}

评分成分

  • quality - 模型质量评分 (0-100)
  • fit - 硬件匹配度 (0-100)
  • speed - 预期速度评分 (0-100)
  • context - 上下文长度评分 (0-100)

🎨 使用技巧

1. 根据场景选择

场景参数说明
通用--use-case general适合日常使用
编码--use-case coding适合代码生成和补全
推理--use-case reasoning适合逻辑推理任务
聊天--use-case chat适合对话交互

2. 硬件优化

# 指定 RAM 容量
llmfit --ram=16G recommend --json

# 指定 GPU VRAM llmfit --memory=24G recommend --json

# 指定 CPU 核心数 llmfit --cpu-cores=16 recommend --json

3. 上下文长度

# 长上下文推荐
llmfit --context=131072 recommend --json

# 特定模型定制 llmfit plan "Qwen/Qwen2.5-Coder-14B-Instruct" --context=8192

🔍 常见问题

Q: 为什么推荐都是 CPU-only?

A: 你的系统 GPU VRAM 无法被自动检测。如果 GPU 正常,可以尝试手动指定:

llmfit --memory=16G --json system

Q: 如何获取已安装的模型?

A: 使用 llmfit list 命令列出已安装模型

Q: 如何刷新模型数据库?

A: 运行更新脚本:

cd C:/Users/admin/.openclaw/workspace/llmfit
./scripts/update_models.sh

Q: 如何在 Docker 中使用?

A: 使用官方 Docker 镜像:

docker run ghcr.io/alexsjones/llmfit --version

📚 更多资源

  • 官方文档: https://github.com/AlexsJones/llmfit
  • 模型库: https://huggingface.co
  • 量化说明: Q8_0, Q4_K_M, Q2_K, FP8 等

作者: AlexsJones (llmfit 原作者) OpenClaw 集成: 基于官方 skill 包 许可证: MIT

数据来源ClawHub ↗ · 中文优化:龙虾技能库