首页龙虾技能列表 › Ollama Model Tuner — Ollama 模型微调器 — 本地模型、提示和 LoRA 微调

Ollama Model Tuner — Ollama 模型微调器 — 本地模型、提示和 LoRA 微调

v1.0.0

在本地使用自定义数据集和评估指标对 Ollama 模型、提示和 LoRA 进行微调,无需云资源。注意:当前包可能不完整,仅包含简单推理脚本,缺乏预期文件和依赖安装指南。

0· 715·2 当前·2 累计
by @gblockchainnetwork (Goroni)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/4/12
安全扫描
VirusTotal
可疑
查看报告
OpenClaw
可疑
high confidence
该技能承诺本地微调和 LoRA 支持,但仅包含简单推理脚本,缺乏必要文件和安装依赖指南,包似乎误导或不完整。
评估建议
该包可能不完整或误导:宣称微调和 LoRA 支持,但只包含小型推理脚本。安装或运行前,请(1)向作者请求缺失文件(prompts/system.md)和真正的 CLI/入口点,(2)验证/获取清晰的 'ollama' Python 客户端和依赖安装指南,(3)审查作者提供的任何额外代码以确认实际训练步骤,(4)在隔离环境(容器/VM)中运行代码,使用非敏感数据,(5)优先选择具有可验证源/主页或发布安装机制的技能。如果需要真正的本地微调,请使用经过审查的工具或官方 Ollama 文档,而不是这个不完整的技能。...
详细分析 ▾
用途与能力
README/描述声称微调、LoRA调优和基准测试,但提供的脚本(scripts/tune.py)仅运行推理(ollama.chat)在最多 10 个样本上。承诺的功能(训练/LoRA应用/评估指标)未实现。SKILL.md引用了在清单中不存在的prompts/system.md和CLI名称(!ollama-model-tuner)
指令范围
运行时指令指示用户运行CLI(!ollama-model-tuner)并引用未包含的文件。SKILL.md未解释如何安装或提供可执行文件,因此遵循指令可能会失败。指令不请求敏感系统文件或额外凭据(无证据表明数据外泄),但其模糊性授予广泛的自由裁量权,与实际代码不一致。
安装机制
没有安装规格(仅指令),风险较低,但包含的Python脚本依赖于 'ollama' Python包和运行中的Ollama服务;未提供依赖或安装指南。这种不匹配意味着技能可能不会按描述运行,并可能导致用户从未知源运行临时安装命令。
凭证需求
技能不请求环境变量、凭证或配置路径。唯一的运行时依赖是 'ollama' Python客户端,通常与本地Ollama守护进程通信;这与描述的本地使用是成比例的。
持久化与权限
技能不是始终运行的,不请求提升或持久的系统特权。它不修改提供的文件中的其他技能或系统范围的设置。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/2/20

v1 发布:本地 Ollama 提示/模型微调。

● 可疑

安装命令 点击复制

官方npx clawhub@latest install ollama-model-tuner
镜像加速npx clawhub@latest install ollama-model-tuner --registry https://cn.clawhub-mirror.com

技能文档

🎯 目的

  • 提示工程与 A/B 测试
  • 模型文件自定义
  • 使用本地数据进行 LoRA 微调
  • 性能基准测试

🚀 快速开始

!ollama-model-tuner --model llama3 --dataset ./data.json --task classification

文件

  • scripts/tune.py:Python 微调器(含评估循环)
  • prompts/system.md:基础系统提示(注意:当前包中此文件缺失

支持

  • Ollama 0.3+,Python 3.10+,JSONL/CSV 数据集
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务