首页龙虾技能列表 › Multi-model automatic fallback system — 多模型自动故障转移系统

Multi-model automatic fallback system — 多模型自动故障转移系统

v1.0.0

该技能提供自动多模型故障转移功能,监控模型可用性、响应时间和速率限制,当主模型失败时自动切换到备份模型。支持 MiniMax、Kimi、Zhipu 和 OpenAI 兼容 API,具有可配置的故障转移链、健康监控、日志记录和成本优化。

0· 463·3 当前·3 累计
by @azure5100·MIT-0
下载技能包
License
MIT-0
最后更新
2026/2/27
安全扫描
VirusTotal
无害
查看报告
OpenClaw
可疑
medium confidence
该技能的描述承诺提供自动运行的故障转移系统,但包中仅有指令,无安装步骤,无代码,依赖外部脚本/服务和未提供的文件系统路径——这些部分并不完全匹配。
评估建议
["确认是否有可检查的实际实现(脚本位于 /scripts/model-fallback.sh、监听 localhost:18789 的服务以及 ~/.openclaw/skills/model-fallback/config.json)。","如果预计技能将自动运行,请从可信源获取安装规范(或提供代码)——否则,代理可能会尝试无效的文件读取或本地网络调用。","审计将被放在 ~/.openclaw 下的任何脚本/配置以及本地服务二进制文件;确保它们来自可信的发布。","如果不信任或无法审计实现,请勿启用自动调用;首先考虑在隔离环境中进行手动测试。"]...
详细分析 ▾
用途与能力
该技能声称提供自动多模型故障转移服务,但没有实现、没有安装规范,也没有声明的二进制文件。
指令范围
SKILL.md 指示代理执行超出简单文档的操作。
安装机制
没有提供安装规范(仅指令)。
凭证需求
该技能不请求任何凭证或敏感环境变量。
持久化与权限
该技能未标记为 'always',也不请求持久的系统范围更改。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/2/27

["发布 model-fallback 技能的初始版本。","提供跨多个 AI 模型的自动故障转移,通过监控可用性、响应时间和速率限制。","支持 MiniMax、Kimi、Zhipu 和 OpenAI 兼容 API。","功能包括可配置的故障转移链、健康监控、日志记录和简单与复杂任务的成本优化。","包含手动控制脚本和 OpenClaw 代理的集成指南。"]

● 无害

安装命令 点击复制

官方npx clawhub@latest install model-fallback
镜像加速npx clawhub@latest install model-fallback --registry https://cn.clawhub-mirror.com

技能文档

多模型自动降级系统,为 AI 智能体提供可靠的模型切换能力

概述

本技能为 OpenClaw 智能体提供自动模型降级功能。当主模型失败(不可用、响应慢或达到速率限制)时,它会按照预定义的优先级顺序自动切换到备用模型。

功能特性

  • 自动降级:在主模型失败时无缝切换到备用模型
  • 可配置优先级:定义自己的模型降级顺序
  • 健康监控:跟踪模型可用性和响应时间
  • 成本优化:使用更便宜的模型处理简单任务
  • 日志记录:完整的降级事件审计跟踪

支持的模型

提供商模型上下文窗口适用场景
MiniMaxM2.5200K主模型(推理)
MiniMaxM2.1200K备用
KimiK2.5256K长文档
KimiK2128K标准
ZhipuGLM-4-Air128K低成本
ZhipuGLM-4-Flash1M高吞吐量

配置

默认降级链

{
  "fallback_chain": [
    {
      "provider": "minimax-portal",
      "model": "MiniMax-M2.5",
      "priority": 1,
      "timeout": 30,
      "max_retries": 3
    },
    {
      "provider": "moonshot",
      "model": "kimi-k2.5",
      "priority": 2,
      "timeout": 30,
      "max_retries": 2
    },
    {
      "provider": "zhipu",
      "model": "glm-4-air",
      "priority": 3,
      "timeout": 20,
      "max_retries": 2
    }
  ]
}

环境变量

变量必填说明
MODEL_FALLBACK_ENABLED启用/禁用降级(默认:true)
MODEL_FALLBACK_LOG_LEVEL日志级别:debug, info, warn, error

使用方法

基本使用

技能自动处理模型失败,无需显式调用。

# 触发模型调用(失败时自动降级)

手动降级

# 强制降级到下一个模型
/scripts/model-fallback.sh --force-next

# 检查当前模型状态 /scripts/model-fallback.sh --status

# 重置为主模型 /scripts/model-fallback.sh --reset

配置自定义

编辑 config.json 自定义降级链:

{
  "fallback_chain": [
    {"provider": "...", "model": "...", "priority": 1}
  ],
  "health_check": {
    "enabled": true,
    "interval_seconds": 300
  }
}

工作原理

1. 用户使用主模型发起请求
  • 模型调用失败(错误、超时、速率限制)
  • 技能检测到失败
  • 等待 3 秒(去抖动)
  • 切换到链中的下一个模型
  • 使用新模型重试请求
  • 如果成功,返回结果
  • 如果失败,重复步骤 4-7
  • 如果所有模型都失败,返回详细错误信息

降级触发条件

触发器条件动作
API 不可用连接超时降级
速率限制429 响应降级 + 等待
响应缓慢> 超时秒数降级
响应无效解析错误降级
认证错误401/403 响应记录 + 停止

日志记录

日志写入位置:

  • ~/.openclaw/logs/model-fallback.log

日志格式

[2026-02-27 14:00:00] [INFO] Primary model MiniMax-M2.5 called
[2026-02-27 14:00:05] [WARN] Model failed: rate limit exceeded
[2026-02-27 14:00:05] [INFO] Falling back to Kimi K2.5
[2026-02-27 14:00:10] [INFO] Fallback successful

成本优化

对简单任务使用更便宜的模型:

{
  "task_routing": {
    "simple_query": ["glm-4-air", "glm-4-flash"],
    "complex_reasoning": ["MiniMax-M2.5", "kimi-k2.5"],
    "long_context": ["kimi-k2.5", "MiniMax-M2.1"]
  }
}

集成

OpenClaw 配置

添加到 openclaw.json

{
  "models": {
    "mode": "merge",
    "fallback": {
      "enabled": true,
      "config": "~/.openclaw/skills/model-fallback/config.json"
    }
  }
}

健康检查

与系统健康监控集成:

# 检查模型健康状态
curl http://localhost:18789/api/models/health

故障排除

降级不工作

  • 检查降级是否启用:echo $MODEL_FALLBACK_ENABLED
  • 验证配置存在:ls ~/.openclaw/skills/model-fallback/config.json
  • 检查日志:tail -f ~/.openclaw/logs/model-fallback.log

模型总是失败

  • 检查 API 密钥是否有效
  • 验证网络连接
  • 在提供商仪表板检查速率限制

使用示例

示例 1:简单降级

用户: "Hello"
系统: Using MiniMax-M2.5...
系统: Rate limited, switching to Kimi K2.5...
系统: Response from Kimi K2.5: "Hello! How can I help?"

示例 2:成本优化

用户: "What is 2+2?"
系统: Routing to glm-4-air (low cost)...
系统: Response: "2+2=4"

示例 3:长文档处理

用户: "Summarize this 100-page PDF"
系统: Detected long context requirement
系统: Routing to Kimi K2.5 (256K context)...
系统: Processing...

许可证

MIT

作者

CC (AI Assistant)

版本

1.0.0

数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务