安全扫描
OpenClaw
安全
high confidence该技能与其声明目的(多模型审议)内部一致;内含一个小型 Bash CLI 框架,无意外凭据请求或远程安装器,但部分安全措施为声明式,运行时部分为占位符。
评估建议
此技能声称的功能——通过 OpenClaw 编排多个 LLM——基本属实。安装前请注意:
1) 必须已配置 OpenClaw 提供商;提供提供商令牌(如 Ollama/OpenAI)意味着技能发送的任何内容(包括使用 --review 时的完整文件内容)都会流向这些服务;除非信任这些提供商,切勿提交敏感机密。
2) 附带的 Bash 脚本仅为 MVP/占位符,实际的并行 sessions_spawn 逻辑并未实现,所宣传的安全措施(费用上限、强制超时/速率限制)大多只是描述,并未在脚本中强制执行。
3) 脚本存在一处小 bug/拼写错误(review-file 赋值前多了一个 'n'),可能导致 --review 失效;脚本使用了 jq 却未检查其是否存在。
建议:先在安全环境中审查并测试脚本,确保已安装 jq 与 openclaw,检查 ~/.openclaw/council-config.json 中的默认/预设配置,并在未与 LLM 提供商达成可接受的数据共享政策前,避免向该技能传递敏感文件。...详细分析 ▾
✓ 用途与能力
名称/描述(多模型审议)与文件和运行时匹配:SKILL.md、prompts 和 scripts 通过 OpenClaw 编排多个 LLM 提供商。所需工具(openclaw、sessions_spawn)与目标相符,未请求无关凭据/二进制文件。
ℹ 指令范围
说明与脚本严格围绕议会用例(列出模型、选择模型、读取可选的评审文件、编排辩论)。重要:使用 --review 时,脚本会把文件内容注入问题(本地文件数据将发送至已配置的模型)——这对代码评审是预期行为,但若在敏感文件上运行则存在隐私/外泄风险。另,SKILL.md 描述了安全措施(费用上限、超时、速率限制),但随附脚本仅为 MVP 占位符,并未实际执行这些限制。
✓ 安装机制
禁止从未受信任的 URL 自动下载/安装。SKILL.md 建议通过 ClawHub 安装或从 GitHub 克隆——两者均为标准方式。清单中不存在“从任意 URL 解压安装”的规范。
ℹ 凭证需求
该 skill 不在 registry 元数据中直接请求环境变量或凭据。SKILL.md 建议通过 OpenClaw 配置 provider token(例如 ollama.cloud.token),做法得当。用户需注意,提供 provider token 后,已配置的模型将可访问 skill 发送的任何数据(例如审查文件内容)。install.json 定义了可配置的环境默认值(COUNCIL_TIMEOUT、COUNCIL_MAX_TOKENS)——合理且不过度。
✓ 持久化与权限
始终为 false,该 skill 不会请求永久性系统级更改,也不会触碰其他 skill 的配置。它仅读写自身配置路径(~/.openclaw/council-config.json),不会提权。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/4/21
初始版本:高风险决策的多模型审议
● 无害
安装命令
点击复制官方npx clawhub@latest install council-of-llms
镜像加速npx clawhub@latest install council-of-llms --registry https://cn.longxiaskill.com
技能文档
多模型合议,为高 stakes 决策把关。别只听一个模型的。 版本: 1.0.0 许可证: MIT 作者: Wahaj Ahmed
概述
Council of LLMs 组织结构化多模型辩论——将一个问题同时路由给多个 LLM,收集答案并呈现共识/分歧。专为“出错代价比多视角开销更大”的决策设计。适用: 安全审计、架构决策、政策分析、LLM 输出评估 不适用: 快速查询、闲聊、初稿
前置条件
- 已配置多 LLM 提供商的 OpenClaw(必需)
- 验证:
openclaw status显示 2+ 提供商 - 示例:
ollama/kimi-k2.5、openai/gpt-4o、anthropic/claude-3-opus - 多模型访问(推荐)
openclaw config set ollama.cloud.token=YOUR_TOKEN 安装
通过 ClawHub(推荐)
``bash
clawhub install wahajahmed010/council-of-llms
`
手动
`bash
cd ~/.openclaw/skills
git clone https://github.com/wahajahmed010/council-of-llms.git
` 用法
零配置快速开始
`bash
# 内置示例问题
council
# 自定义问题
council "认证该用 JWT 还是 session cookies?"
# 安全审计示例
council --review "分析此 Python 函数的安全问题" --input ./auth.py
` 模型选择
`bash
# 列出可用模型
council --list-models
# 交互选模型
council "架构决策" --select-models
# 显式模型列表
council "安全审计" --models "ollama/kimi-k2.5,openai/gpt-4o,anthropic/claude-3-opus"
# 使用预设
council "代码审查" --preset security
` 配置
`bash
# 顺序模式(硬件受限)
council "问题" --sequential
# 延长超时
council "问题" --timeout 180
# 导出结果
council "问题" --output report.md
` 工作原理
架构
`
用户问题
↓
[预检] → 确认 2+ 模型可用
↓
[生成代理] → 生成 2-3 个不同模型的代理
↓
[第 1 轮:开场] → 各代理给出初步分析
↓
[第 2 轮:反驳] → 代理互回应
↓
[综合] → 对比立场,找出共识/分歧
↓
[报告] → 结构化输出与结论
` 回退模式
若 sessions_spawn 不可用,自动切换为单提示多角色模拟——所有“代理”以段落形式存在于同一提示。效果略逊,但随处可用。 输出格式
`markdown
# 合议报告:[问题]
参与者
- 策略师(ollama/kimi-k2.5)
- 安全专家(openai/gpt-4o)
- 实用主义者(anthropic/claude-3-opus)
各自立场
策略师
立场: 短过期 JWT
要点:
- 无状态认证水平扩展
- 减少数据库查询
- 微服务行业标准
安全专家
立场: httpOnly session cookies
**要点:
``