📦 Council — 议会

v1.0.0

LLMs 多模型审慎决策,高风险场景勿信单模型一言。

0· 23·0 当前·0 累计
wahajahmed010 头像by @wahajahmed010 (Wahaj Ahmed)·MIT
下载技能包
License
MIT
最后更新
2026/4/21
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
该技能与其声明目的(多模型审议)内部一致;内含一个小型 Bash CLI 框架,无意外凭据请求或远程安装器,但部分安全措施为声明式,运行时部分为占位符。
评估建议
此技能声称的功能——通过 OpenClaw 编排多个 LLM——基本属实。安装前请注意: 1) 必须已配置 OpenClaw 提供商;提供提供商令牌(如 Ollama/OpenAI)意味着技能发送的任何内容(包括使用 --review 时的完整文件内容)都会流向这些服务;除非信任这些提供商,切勿提交敏感机密。 2) 附带的 Bash 脚本仅为 MVP/占位符,实际的并行 sessions_spawn 逻辑并未实现,所宣传的安全措施(费用上限、强制超时/速率限制)大多只是描述,并未在脚本中强制执行。 3) 脚本存在一处小 bug/拼写错误(review-file 赋值前多了一个 'n'),可能导致 --review 失效;脚本使用了 jq 却未检查其是否存在。 建议:先在安全环境中审查并测试脚本,确保已安装 jq 与 openclaw,检查 ~/.openclaw/council-config.json 中的默认/预设配置,并在未与 LLM 提供商达成可接受的数据共享政策前,避免向该技能传递敏感文件。...
详细分析 ▾
用途与能力
名称/描述(多模型审议)与文件和运行时匹配:SKILL.md、prompts 和 scripts 通过 OpenClaw 编排多个 LLM 提供商。所需工具(openclaw、sessions_spawn)与目标相符,未请求无关凭据/二进制文件。
指令范围
说明与脚本严格围绕议会用例(列出模型、选择模型、读取可选的评审文件、编排辩论)。重要:使用 --review 时,脚本会把文件内容注入问题(本地文件数据将发送至已配置的模型)——这对代码评审是预期行为,但若在敏感文件上运行则存在隐私/外泄风险。另,SKILL.md 描述了安全措施(费用上限、超时、速率限制),但随附脚本仅为 MVP 占位符,并未实际执行这些限制。
安装机制
禁止从未受信任的 URL 自动下载/安装。SKILL.md 建议通过 ClawHub 安装或从 GitHub 克隆——两者均为标准方式。清单中不存在“从任意 URL 解压安装”的规范。
凭证需求
该 skill 不在 registry 元数据中直接请求环境变量或凭据。SKILL.md 建议通过 OpenClaw 配置 provider token(例如 ollama.cloud.token),做法得当。用户需注意,提供 provider token 后,已配置的模型将可访问 skill 发送的任何数据(例如审查文件内容)。install.json 定义了可配置的环境默认值(COUNCIL_TIMEOUT、COUNCIL_MAX_TOKENS)——合理且不过度。
持久化与权限
始终为 false,该 skill 不会请求永久性系统级更改,也不会触碰其他 skill 的配置。它仅读写自身配置路径(~/.openclaw/council-config.json),不会提权。
安全有层次,运行前请审查代码。

License

MIT

可自由使用、修改和再分发,需保留版权声明。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/4/21

初始版本:高风险决策的多模型审议

无害

安装命令

点击复制
官方npx clawhub@latest install council-of-llms
镜像加速npx clawhub@latest install council-of-llms --registry https://cn.longxiaskill.com

技能文档

多模型合议,为高 stakes 决策把关。别只听一个模型的。 版本: 1.0.0 许可证: MIT 作者: Wahaj Ahmed

概述

Council of LLMs 组织结构化多模型辩论——将一个问题同时路由给多个 LLM,收集答案并呈现共识/分歧。专为“出错代价比多视角开销更大”的决策设计。

适用: 安全审计、架构决策、政策分析、LLM 输出评估 不适用: 快速查询、闲聊、初稿

前置条件

  • 已配置多 LLM 提供商的 OpenClaw(必需)
  • 验证:openclaw status 显示 2+ 提供商
  • 示例:ollama/kimi-k2.5openai/gpt-4oanthropic/claude-3-opus
  • 多模型访问(推荐)
- 本地 Ollama:一次只能跑 1 个模型(顺序模式) - 推荐:Ollama Cloud——并行多模型执行 - 注册:https://ollama.com/cloud - 配置:openclaw config set ollama.cloud.token=YOUR_TOKEN

安装

通过 ClawHub(推荐)

``bash clawhub install wahajahmed010/council-of-llms `

手动

`bash cd ~/.openclaw/skills git clone https://github.com/wahajahmed010/council-of-llms.git `

用法

零配置快速开始

`bash # 内置示例问题 council # 自定义问题 council "认证该用 JWT 还是 session cookies?" # 安全审计示例 council --review "分析此 Python 函数的安全问题" --input ./auth.py `

模型选择

`bash # 列出可用模型 council --list-models # 交互选模型 council "架构决策" --select-models # 显式模型列表 council "安全审计" --models "ollama/kimi-k2.5,openai/gpt-4o,anthropic/claude-3-opus" # 使用预设 council "代码审查" --preset security `

配置

`bash # 顺序模式(硬件受限) council "问题" --sequential # 延长超时 council "问题" --timeout 180 # 导出结果 council "问题" --output report.md `

工作原理

架构

` 用户问题 ↓ [预检] → 确认 2+ 模型可用 ↓ [生成代理] → 生成 2-3 个不同模型的代理 ↓ [第 1 轮:开场] → 各代理给出初步分析 ↓ [第 2 轮:反驳] → 代理互回应 ↓ [综合] → 对比立场,找出共识/分歧 ↓ [报告] → 结构化输出与结论 `

回退模式

sessions_spawn 不可用,自动切换为单提示多角色模拟——所有“代理”以段落形式存在于同一提示。效果略逊,但随处可用。

输出格式

`markdown # 合议报告:[问题]

参与者

  • 策略师(ollama/kimi-k2.5)
  • 安全专家(openai/gpt-4o)
  • 实用主义者(anthropic/claude-3-opus)

各自立场

策略师

立场: 短过期 JWT 要点:
  • 无状态认证水平扩展
  • 减少数据库查询
  • 微服务行业标准

安全专家

立场: httpOnly session cookies **要点:
``

数据来源ClawHub ↗ · 中文优化:龙虾技能库