首页龙虾技能列表 › LLM Supervisor — 自动切换云端/本地LLM大模型(限速自动切换,需确认本地代码生成)

LLM Supervisor — 自动切换云端/本地LLM大模型(限速自动切换,需确认本地代码生成)

v0.2.0

自动在云端和本地LLM大模型之间切换,基于限速触发,需要用户确认才进行本地代码生成。监控云端LLM错误,切换到本地Ollama模型,并为本地代码生成提供防护机制。

1· 1,500·0 当前·0 累计
by @dhardie·MIT-0
下载技能包
License
MIT-0
最后更新
2026/2/26
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
该技能的代码和运行指令与其声明的目的相符:监控云端LLM错误,并带有本地代码生成防护机制,切换到本地Ollama模型。
评估建议
该技能在内部与其声明的目的保持一致。安装前注意:1) 将设置代理LLM配置文件为云提供商('anthropic:default')或本地Ollama端点(http://127.0.0.1:11434),确保在该地址运行Ollama或修改配置。2) 默认启用(skill.json enabledByDefault: true),可能立即影响代理;若偏好控制,安装前禁用直到测试。3) 可以通知所有用户并在本地模式下阻止代码任务,直到有人输入配置的确认短语;如果必要,审查或修改confirmationPhrase/localModel/cooldownMinutes。4) 不请求凭据或调用除本地Ollama URL以外的外部服务器;仍建议审查源码以获得额外保证。若需额外谨慎,先在非生产工作空间测试。...
详细分析 ▾
用途与能力
技能名称/描述与实现相符:钩子检测LLM错误,切换全局模式状态,设置代理LLM配置文件(云端 vs 本地),并暴露 /llm 命令。声明的权限(llm、代理、通知、状态)与这些操作一致。
指令范围
运行时行为范围狭窄:仅检查LLM错误消息、代理启动事件和任务意图;在本地模式下,直到用户提供明确确认短语之前,阻止代码相关任务。它不读取任意文件、环境变量或其他代理的凭据。
安装机制
无安装规格或外部下载;技能与其代码一起打包(编译的dist文件)。没有外部URL下载或提取步骤。从安装程序的角度看,这是低风险的。
凭证需求
技能不请求环境变量或外部凭据。它在切换到本地模式时配置本地Ollama baseUrl(http://127.0.0.1:11434),这与其目的相符。
持久化与权限
skill.json 设置 enabledByDefault: true,因此技能默认启用;然而 'always' 为 false,并且它不请求超出管理代理/LLM配置文件和状态的系统范围权限。由于它可以更改代理LLM配置文件并通知所有用户,默认启用意味着它将立即影响代理行为,除非您禁用它。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv0.2.02026/2/6

基于限速检测的云端/本地LLM切换,带有安全确认

● 无害

安装命令 点击复制

官方npx clawhub@latest install llm-supervisor-agent
镜像加速npx clawhub@latest install llm-supervisor-agent --registry https://cn.clawhub-mirror.com

技能文档

概述

自动在云端和本地LLM大模型之间切换,基于限速触发,需要用户确认才进行本地代码生成。

功能特点

  • 监控云端LLM错误,切换到本地Ollama模型
  • 本地代码生成需用户确认
  • 支持云端/本地LLM模式切换

安装和配置

  • 确保本地Ollama运行在 http://127.0.0.1:11434
  • 根据需要配置 confirmationPhrase、localModel 和 cooldownMinutes
  • 默认启用,安装后即生效,建议测试后再启用

使用示例

  • 当云端LLM触发限速时,自动切换到本地LLM
  • 用户通过输入确认短语授权本地代码生成

# 代码示例(保留原代码,不翻译)

// 示例代码
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务