📦 多LLM集成(MoA)
v1.0.0当智能体需要最高质量的答案时,使用此技能可并行查询多个 LLM 提供商(Claude、Gemini、GPT、Ollama)并综合...
运行时依赖
安装命令
点击复制技能文档
工作原理 Mixture of Agents (MoA) 模式: 所有可用的 proposer 模型并行查询任务(asyncio.gather) synthesizer 模型整合各响应的最优部分 可选多轮重复(质量更高,延迟更大) Provider 通过环境变量自动识别——无需配置。
Env Var Provider 默认模型 ANTHROPIC_API_KEY Claude claude-sonnet-4-6, claude-haiku-4-5 OPENAI_API_KEY OpenAI gpt-4o, gpt-4o-mini GEMINI_API_KEY Gemini gemini-2.0-flash, gemini-1.5-pro OLLAMA_HOST(可选) Ollama llama3, mistral(自动列出)
用法 uv run {baseDir}/scripts/ensemble.py \ --prompt "분석할 태스크 또는 질문" \ [--models claude-sonnet-4-6,gpt-4o,gemini-2.0-flash] \ [--synthesizer claude-opus-4-7] \ [--rounds 1] \ [--format text|json] \ [--output result.txt]
关键选项 --models / -m 逗号分隔模型列表(省略时自动选用检测到的模型) --synthesizer / -s 指定合成模型(省略时自动选最强模型) --rounds / -r MoA 轮数。1=最快,2=质量最高(默认:1) --format text(默认)或 json(含各模型响应) --output / -o 保存到文件(省略时输出到 stdout)
适用场景 需要复杂推理、策略分析、决策时 认为单模型响应质量不足时 代码审查、Bug 分析、研究摘要 提升交易信号质量等准确性关键任务
注意事项 无 API 密钥的 provider 会被静默跳过(非错误) 某一模型失败时继续用其余模型 详细调优:references/moa-guide.md