📦 Neural Network Ops — 诊断调优LLM

v1.0.0

一键诊断并调优 Groq、OpenRouter、Ollama 等 LLM 提供商,自动处理限流、超时,智能切换主备模型,保障 OpenClaw 稳定响应。

0· 141·1 当前·1 累计
utromaya-code 头像by @utromaya-code·MIT-0
下载技能包
License
MIT-0
最后更新
2026/3/23
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
技能要求与说明与其宣称目的(诊断与调优模型提供商)一致,但包含高权限操作(服务重启、删除 /root 下文件),在生产环境运行前需谨慎。
评估建议
本纯指令技能确实是 OpenClaw 模型提供商运维手册。内含重启服务及删除 /root/.openclaw 会话文件的命令,仅在理解后果并备份后执行。建议:1) 先在预发布环境验证路径与服务名;2) 重启或 rm 前需人工确认;3) 勿授予自动 root 权限,用最小权限账户或经审批运行;4) 删除/替换前备份会话/配置;5) 若需自动执行,加白名单或二次确认,否则仅用户调用。...
详细分析 ▾
用途与能力
名称与描述声明对提供商/网关进行诊断与路由;SKILL.md 包含 journalctl、systemctl 检查、路由优先级、回退配置示例及 OpenClaw、Groq、OpenRouter、Ollama 的恢复步骤,与宣称目的相符。
指令范围
指令聚焦服务健康与模型路由,但包含破坏性/高权操作(rm -rf /root/.openclaw 下会话文件、systemctl restart/stop/start)及对本地 API 的 curl 调用。虽属运维范畴,但需操作员确认与适当权限;指令假定 root/systemd 及特定文件系统布局。
安装机制
无安装规范或代码文件(纯指令),降低供应链风险,安装器不下载或写入任何内容。
凭证需求
技能未声明所需环境变量、凭据或配置路径,SKILL.md 亦不读取外部密钥或请求 API Key,与本地运维及路由配置目的相符。
持久化与权限
技能未请求常驻(always:false)且由用户调用,但推荐操作需高权(systemctl、修改 /root 文件)。确保代理不被授予无限制 root 执行权,亦不可在无人确认下运行这些命令。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/3/23

- 首次发布 neural-network-ops 技能,用于诊断与调优 Groq、OpenRouter、Ollama 等 LLM 提供商。 - 提供快速故障排查检查与路由策略建议,保持 OpenClaw 响应速度。 - 详述稳定模型约束与本地/云端提供商回退策略。 - 包含针对静默机器人、限流、提供商错误等常见问题的分步恢复手册。 - 定义健康报告标准输出格式并引入严格运维防护栏。

无害

安装命令

点击复制
官方npx clawhub@latest install neural-network-diagnostics
镜像加速npx clawhub@latest install neural-network-diagnostics --registry https://cn.longxiaskill.com

技能文档

# Neural Network Ops ## 目的 通过管理模型 provider、路由和回退策略,保持 OpenClaw 的响应能力。 ## 快速排查 先运行下列检查: ``bash systemctl is-active openclaw-gateway ollama journalctl -u openclaw-gateway -n 40 --no-pager free -h ` 重点关注这些日志模式: - rate limit reached - Model context window too small - Unknown model - No endpoints available - sendMessage failed - embedded run timeout - Removed orphaned user message ## 路由策略 生产环境默认优先级: 1. groq/llama-3.3-70b-versatile(最快云路径) 2. openrouter/xiaomi/mimo-v2-pro(高质量备份) 3. openrouter/meta-llama/llama-3.3-70b-instruct:free 4. ollama/qwen2.5:7b(最后的本地回退) 实时 Telegram 回复场景下,30GB RAM CPU 服务器避免使用 35B 本地模型。 ## 稳定模型约束 本地 Ollama 回退需满足: - contextWindow >= 16000 - 保持 maxTokens 适中(1024-2048)以降低延迟 - 若需本地回退,重启后预热模型 本地 provider 配置示例: `json { "id": "qwen2.5:7b", "name": "Qwen 2.5 7B (local)", "contextWindow": 32768, "maxTokens": 2048 } ` ## 恢复手册 ### 1) Telegram 内 bot 无响应 `bash journalctl -u openclaw-gateway --since '10 min ago' --no-pager ` 若出现 sendMessage failed,先排查网络或 provider 错误,再重启: `bash systemctl restart openclaw-gateway ` ### 2) 反复出现 orphaned user message `bash systemctl stop openclaw-gateway rm -rf /root/.openclaw/.openclaw/agents/main/sessions/* echo '{}' > /root/.openclaw/.openclaw/agents/main/sessions/sessions.json chmod 600 /root/.openclaw/.openclaw/agents/main/sessions/sessions.json systemctl start openclaw-gateway ` ### 3) Groq/OpenRouter 限流 - Groq 保持主用,但确保至少有一个非免费回退。 - OpenRouter 出现 404 privacy/policy 错误时,在 OpenRouter 控制台调整数据策略设置。 - 不要无限重试;依赖回退链。 ### 4) 本地回放过慢 - 干净重启 Ollama 并预热一个小模型。 - 不要常驻多个重量级 runner。 `bash systemctl restart ollama curl -s -X POST http://127.0.0.1:11434/api/chat \ -H 'Content-Type: application/json' \ -d '{"model":"qwen2.5:7b","messages":[{"role":"user","content":"hi"}],"stream":false}' ` ## 输出格式 汇报健康状态时,返回: `markdown ## 状态 - Gateway: - Telegram provider: - Primary model: - Fallback chain: ## 发现 - <最严重问题优先> - <次要问题> ## 已执行操作 - <具体改动> ## 下一步 - <用户可执行的单一验证动作> `` ## 安全限制 - 回复中绝不暴露原始 API 密钥。 - 绝不自动执行不可逆的财务操作。 - 账号注册或外部发帖前,需明确确认。 - 优先可逆配置更改,重大编辑前保留备份。

数据来源ClawHub ↗ · 中文优化:龙虾技能库