安全扫描
OpenClaw
安全
high confidence该技能的代码和运行指令与其声明的目的相符:监控云端LLM错误,并带有本地代码生成防护机制,切换到本地Ollama模型。
评估建议
该技能在内部与其声明的目的保持一致。安装前注意:1) 将设置代理LLM配置文件为云提供商('anthropic:default')或本地Ollama端点(http://127.0.0.1:11434),确保在该地址运行Ollama或修改配置。2) 默认启用(skill.json enabledByDefault: true),可能立即影响代理;若偏好控制,安装前禁用直到测试。3) 可以通知所有用户并在本地模式下阻止代码任务,直到有人输入配置的确认短语;如果必要,审查或修改confirmationPhrase/localModel/cooldownMinutes。4) 不请求凭据或调用除本地Ollama URL以外的外部服务器;仍建议审查源码以获得额外保证。若需额外谨慎,先在非生产工作空间测试。...详细分析 ▾
✓ 用途与能力
技能名称/描述与实现相符:钩子检测LLM错误,切换全局模式状态,设置代理LLM配置文件(云端 vs 本地),并暴露 /llm 命令。声明的权限(llm、代理、通知、状态)与这些操作一致。
✓ 指令范围
运行时行为范围狭窄:仅检查LLM错误消息、代理启动事件和任务意图;在本地模式下,直到用户提供明确确认短语之前,阻止代码相关任务。它不读取任意文件、环境变量或其他代理的凭据。
✓ 安装机制
无安装规格或外部下载;技能与其代码一起打包(编译的dist文件)。没有外部URL下载或提取步骤。从安装程序的角度看,这是低风险的。
✓ 凭证需求
技能不请求环境变量或外部凭据。它在切换到本地模式时配置本地Ollama baseUrl(http://127.0.0.1:11434),这与其目的相符。
ℹ 持久化与权限
skill.json 设置 enabledByDefault: true,因此技能默认启用;然而 'always' 为 false,并且它不请求超出管理代理/LLM配置文件和状态的系统范围权限。由于它可以更改代理LLM配置文件并通知所有用户,默认启用意味着它将立即影响代理行为,除非您禁用它。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv0.2.02026/2/6
基于限速检测的云端/本地LLM切换,带有安全确认
● 无害
安装命令 点击复制
官方npx clawhub@latest install llm-supervisor-agent
镜像加速npx clawhub@latest install llm-supervisor-agent --registry https://cn.clawhub-mirror.com
技能文档
概述
自动在云端和本地LLM大模型之间切换,基于限速触发,需要用户确认才进行本地代码生成。功能特点
- 监控云端LLM错误,切换到本地Ollama模型
- 本地代码生成需用户确认
- 支持云端/本地LLM模式切换
安装和配置
- 确保本地Ollama运行在 http://127.0.0.1:11434
- 根据需要配置 confirmationPhrase、localModel 和 cooldownMinutes
- 默认启用,安装后即生效,建议测试后再启用
使用示例
- 当云端LLM触发限速时,自动切换到本地LLM
- 用户通过输入确认短语授权本地代码生成
# 代码示例(保留原代码,不翻译)
// 示例代码
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制