安全扫描
OpenClaw
可疑
medium confidence该技能的描述承诺提供自动运行的故障转移系统,但包中仅有指令,无安装步骤,无代码,依赖外部脚本/服务和未提供的文件系统路径——这些部分并不完全匹配。
评估建议
["确认是否有可检查的实际实现(脚本位于 /scripts/model-fallback.sh、监听 localhost:18789 的服务以及 ~/.openclaw/skills/model-fallback/config.json)。","如果预计技能将自动运行,请从可信源获取安装规范(或提供代码)——否则,代理可能会尝试无效的文件读取或本地网络调用。","审计将被放在 ~/.openclaw 下的任何脚本/配置以及本地服务二进制文件;确保它们来自可信的发布。","如果不信任或无法审计实现,请勿启用自动调用;首先考虑在隔离环境中进行手动测试。"]...详细分析 ▾
⚠ 用途与能力
该技能声称提供自动多模型故障转移服务,但没有实现、没有安装规范,也没有声明的二进制文件。
⚠ 指令范围
SKILL.md 指示代理执行超出简单文档的操作。
ℹ 安装机制
没有提供安装规范(仅指令)。
✓ 凭证需求
该技能不请求任何凭证或敏感环境变量。
✓ 持久化与权限
该技能未标记为 'always',也不请求持久的系统范围更改。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/2/27
["发布 model-fallback 技能的初始版本。","提供跨多个 AI 模型的自动故障转移,通过监控可用性、响应时间和速率限制。","支持 MiniMax、Kimi、Zhipu 和 OpenAI 兼容 API。","功能包括可配置的故障转移链、健康监控、日志记录和简单与复杂任务的成本优化。","包含手动控制脚本和 OpenClaw 代理的集成指南。"]
● 无害
安装命令 点击复制
官方npx clawhub@latest install model-fallback
镜像加速npx clawhub@latest install model-fallback --registry https://cn.clawhub-mirror.com
技能文档
多模型自动降级系统,为 AI 智能体提供可靠的模型切换能力
概述
本技能为 OpenClaw 智能体提供自动模型降级功能。当主模型失败(不可用、响应慢或达到速率限制)时,它会按照预定义的优先级顺序自动切换到备用模型。
功能特性
- 自动降级:在主模型失败时无缝切换到备用模型
- 可配置优先级:定义自己的模型降级顺序
- 健康监控:跟踪模型可用性和响应时间
- 成本优化:使用更便宜的模型处理简单任务
- 日志记录:完整的降级事件审计跟踪
支持的模型
| 提供商 | 模型 | 上下文窗口 | 适用场景 |
|---|---|---|---|
| MiniMax | M2.5 | 200K | 主模型(推理) |
| MiniMax | M2.1 | 200K | 备用 |
| Kimi | K2.5 | 256K | 长文档 |
| Kimi | K2 | 128K | 标准 |
| Zhipu | GLM-4-Air | 128K | 低成本 |
| Zhipu | GLM-4-Flash | 1M | 高吞吐量 |
配置
默认降级链
{
"fallback_chain": [
{
"provider": "minimax-portal",
"model": "MiniMax-M2.5",
"priority": 1,
"timeout": 30,
"max_retries": 3
},
{
"provider": "moonshot",
"model": "kimi-k2.5",
"priority": 2,
"timeout": 30,
"max_retries": 2
},
{
"provider": "zhipu",
"model": "glm-4-air",
"priority": 3,
"timeout": 20,
"max_retries": 2
}
]
}
环境变量
| 变量 | 必填 | 说明 |
|---|---|---|
MODEL_FALLBACK_ENABLED | 否 | 启用/禁用降级(默认:true) |
MODEL_FALLBACK_LOG_LEVEL | 否 | 日志级别:debug, info, warn, error |
使用方法
基本使用
技能自动处理模型失败,无需显式调用。
# 触发模型调用(失败时自动降级)
手动降级
# 强制降级到下一个模型
/scripts/model-fallback.sh --force-next# 检查当前模型状态
/scripts/model-fallback.sh --status
# 重置为主模型
/scripts/model-fallback.sh --reset
配置自定义
编辑 config.json 自定义降级链:
{
"fallback_chain": [
{"provider": "...", "model": "...", "priority": 1}
],
"health_check": {
"enabled": true,
"interval_seconds": 300
}
}
工作原理
1. 用户使用主模型发起请求
- 模型调用失败(错误、超时、速率限制)
- 技能检测到失败
- 等待 3 秒(去抖动)
- 切换到链中的下一个模型
- 使用新模型重试请求
- 如果成功,返回结果
- 如果失败,重复步骤 4-7
- 如果所有模型都失败,返回详细错误信息
降级触发条件
| 触发器 | 条件 | 动作 |
|---|---|---|
| API 不可用 | 连接超时 | 降级 |
| 速率限制 | 429 响应 | 降级 + 等待 |
| 响应缓慢 | > 超时秒数 | 降级 |
| 响应无效 | 解析错误 | 降级 |
| 认证错误 | 401/403 响应 | 记录 + 停止 |
日志记录
日志写入位置:
~/.openclaw/logs/model-fallback.log
日志格式
[2026-02-27 14:00:00] [INFO] Primary model MiniMax-M2.5 called
[2026-02-27 14:00:05] [WARN] Model failed: rate limit exceeded
[2026-02-27 14:00:05] [INFO] Falling back to Kimi K2.5
[2026-02-27 14:00:10] [INFO] Fallback successful
成本优化
对简单任务使用更便宜的模型:
{
"task_routing": {
"simple_query": ["glm-4-air", "glm-4-flash"],
"complex_reasoning": ["MiniMax-M2.5", "kimi-k2.5"],
"long_context": ["kimi-k2.5", "MiniMax-M2.1"]
}
}
集成
OpenClaw 配置
添加到 openclaw.json:
{
"models": {
"mode": "merge",
"fallback": {
"enabled": true,
"config": "~/.openclaw/skills/model-fallback/config.json"
}
}
}
健康检查
与系统健康监控集成:
# 检查模型健康状态
curl http://localhost:18789/api/models/health
故障排除
降级不工作
- 检查降级是否启用:
echo $MODEL_FALLBACK_ENABLED - 验证配置存在:
ls ~/.openclaw/skills/model-fallback/config.json - 检查日志:
tail -f ~/.openclaw/logs/model-fallback.log
模型总是失败
- 检查 API 密钥是否有效
- 验证网络连接
- 在提供商仪表板检查速率限制
使用示例
示例 1:简单降级
用户: "Hello"
系统: Using MiniMax-M2.5...
系统: Rate limited, switching to Kimi K2.5...
系统: Response from Kimi K2.5: "Hello! How can I help?"
示例 2:成本优化
用户: "What is 2+2?"
系统: Routing to glm-4-air (low cost)...
系统: Response: "2+2=4"
示例 3:长文档处理
用户: "Summarize this 100-page PDF"
系统: Detected long context requirement
系统: Routing to Kimi K2.5 (256K context)...
系统: Processing...
许可证
MIT
作者
CC (AI Assistant)
版本
1.0.0
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制