ModelReady — 本地/哈格林格脸部模型即时使用
v1.0.0ModelReady允许您直接从聊天窗口即刻启动和交互本地或哈格林格脸部模型,提供OpenAI兼容的本地端点和简单的聊天接口。管理模型服务器,支持启动、停止、状态检查和默认主机/端口设置。
0· 1,299·3 当前·3 累计
安全扫描
OpenClaw
可疑
high confidence该技能基本如宣称,但存在一致性和安全问题:未声明的运行时依赖、无安装步骤、默认网络绑定可能无鉴权暴露于局域网。
评估建议
该技能实现了本地vLLM/OpenAI兼容服务器管理,但安装/使用前须注意:依赖项(python3和vllm包)、网络暴露风险(默认绑定0.0.0.0)、无鉴权、文件写入和输入处理。...详细分析 ▾
⚠ 用途与能力
脚本实现了宣称的功能,但注册表/元数据中的声明要求不完整:运行时需要python3和vllm Python包,但未列在所需二进制文件或安装规格中。SKILL.md元数据还列出了未使用的'URL'环境变量。这些不匹配意味着技能的声明要求与其实际需求不匹配。
⚠ 指令范围
指令和脚本在$HOME/.model2skill下读写文件(defaults.env、pid/log文件),这是合理的。但脚本默认绑定到HOST=0.0.0.0(DEFAULT_HOST),将OpenAI兼容端点暴露于网络/LAN,除非更改;SKILL.md未警告此事。技能将启动未经鉴权的HTTP API,如果可达,其他网络机器可能会调用它。聊天路径仅使用本地HTTP请求(无远程数据外泄),但广泛暴露模型端点是安全/隐私问题。
ℹ 安装机制
没有安装规格,也没有下载代码 — 该技能仅为指令+脚本。这从供应链角度看低风险,但在操作上有问题:脚本预期python3和'vllm'包可用。技能不提供安装步骤或检查vllm;用户可能运行它并看到失败,或者如果存在则运行不可信任的vllm二进制文件。
ℹ 凭证需求
该技能不请求外部凭证,只在~/.model2skill下写入小默认文件。它使用HOME和网络信息(主机名/IP)来解析绑定目标。SKILL.md元数据列出了与包其余部分不一致的'URL'环境变量条目;否则,没有未解释的SECRET/TOKEN环境变量要求。
✓ 持久化与权限
该技能将状态持久化到$HOME/.model2skill(默认值、日志、PID文件),这对于本地服务器管理器是预期的。它不请求always:true,不修改其他技能,也不请求高级特权。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/2/7
ModelReady初始发布:从聊天窗口即刻运行和交互本地或哈格林格脸部模型。功能包括启动模型端点、直接聊天、服务器管理和简单命令。
● 可疑
安装命令 点击复制
官方npx clawhub@latest install modelready
镜像加速npx clawhub@latest install modelready --registry https://cn.clawhub-mirror.com
技能文档
ModelReady让您即刻从聊天窗口使用本地或哈格林格脸部模型。它将模型转换为运行的OpenAI兼容端点,允许直接从对话中与其交互。
使用场景
使用此技能时:- 快速启动使用本地或哈格林格脸部模型
- 直接从聊天中与本地运行的模型交互
- 测试或直接从聊天与模型交互
命令
启动模型服务器
/modelready start repo=<路径或HF存储库> port=<端口> [tp=] [dtype=]
示例:
/modelready start repo=Qwen/Qwen2.5-7B-Instruct port=19001
/modelready start repo=/home/user/models/Qwen-2.5 port=8010 tp=4 dtype=bfloat16
与运行中的模型聊天
/modelready chat port=<端口> text="<消息>"
示例:
/modelready chat port=8010 text="hello"
检查状态或停止服务器
/modelready status port=<端口>
/modelready stop port=<端口>
设置默认主机或端口
/modelready set_ip ip=<主机>
/modelready set_port port=<端口>
注意
模型使用vLLM本地服务 暴露的端点遵循OpenAI API格式 * 必须在发送聊天请求前启动服务器数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制