安全扫描
OpenClaw
安全
medium confidence该技能的指令与所需构件(~/.claude 下的改进记忆与性能历史)符合其声明用途,但未声明 Python 依赖预期,会读取用户本地 JSON 文件——安装前请审查这些文件及运行时环境。
评估建议
此技能看起来确实如其所述:分析存储在 ~/.claude/skills 下的技能改进数据。安装前:(1) 确认环境提供引用的 Python 模块(abstract.improvement_memory、abstract.performance_tracker)或准备添加它们;(2) 检查 ~/.claude/skills/improvement_memory.json 和 performance_history.json 文件,确保其中不含你不希望技能读取的敏感机密;(3) 若期望技能在受限环境运行,请手动测试(运行代码片段)以验证行为。若后续版本增加网络调用、需要凭据或包含下载代码的安装步骤,请重新考虑安装。...详细分析 ▾
ℹ 用途与能力
名称/描述(对改进过程的元认知分析)与指令一致,指令操作改进记忆与性能历史。轻微不一致:SKILL.md 使用 Python 导入(abstract.improvement_memory、abstract.performance_tracker),但技能未声明依赖或所需包——可能预期在已提供这些模块的主机运行,但技能元数据中未记录该预期。
✓ 指令范围
运行时指令仅聚焦于加载并分析 ~/.claude/skills/improvement_memory.json 和 performance_history.json,并生成元洞察。这些文件读取与目的相符。无指令将数据外传或访问无关系统路径。注意:读取用户主目录 JSON 文件可能暴露本地数据;技能假设这些文件存在且包含相关改进数据。
✓ 安装机制
纯指令技能,无安装规范与代码文件——安装风险最低。无下载/解压活动或外部安装 URL。
✓ 凭证需求
技能未请求环境变量、凭据或配置路径,仅访问 ~/.claude/skills 下的两个 JSON 文件。这些文件访问与声明的改进记忆分析目标成比例。无意外机密或云凭据请求。
✓ 持久化与权限
技能非始终启用,使用普通自主调用设置。未请求持久化系统级权限,也未在提供的指令中修改其他技能配置。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.8.32026/4/6
Release v1.8.3
● 无害
安装命令
点击复制官方npx clawhub@latest install nm-abstract-metacognitive-self-mod
镜像加速npx clawhub@latest install nm-abstract-metacognitive-self-mod --registry https://cn.longxiaskill.com
技能文档
Night Market Skill — 移植自 claude-night-market/abstract。要获得包含 agents、hooks 与 commands 的完整体验,请安装 Claude Code 插件。 # Metacognitive Self-Modification(元认知自我修正) 分析过往技能改进的有效性,并精炼改进过程本身。这是 Hyperagents 论文的核心创新:不仅改进技能,更要改进“如何改进技能”。 ## 上下文触发器(自动调用) 当下列情况发生时,应自动调用本技能: 1. 检测到回退:稳态监控器发现某技能的评估窗口以pending_rollback_review状态结束。所做的改进让情况变得更糟——我们需要理解原因。 2. 低有效率:当ImprovementMemory.get_effective_strategies()与get_failed_strategies()相比,有效率低于 50%,则改进过程本身需要精炼。 3. 改进后仍恶化:当PerformanceTracker.get_improvement_trend()对最近被改进的技能返回负值。 4. 定期检查:每 10 次改进周期后(通过 ImprovementMemory 中的 outcome 计数跟踪)。 ### Hook 集成 稳态监控器在技能越过标记阈值时会发出"improvement_triggered": true。此时,在调度 skill-improver 之前,先检查是否需要进行元认知分析: ``python from abstract.improvement_memory import ImprovementMemory from pathlib import Path memory = ImprovementMemory( Path.home() / ".claude/skills/improvement_memory.json" ) # 检查是否需要进行元认知分析 effective = memory.get_effective_strategies() failed = memory.get_failed_strategies() total = len(effective) + len(failed) needs_metacognition = False # 触发条件 1:低有效率 if total >= 5 and len(effective) / total < 0.5: needs_metacognition = True # 触发条件 2:定期检查(每 10 个 outcome) if total > 0 and total % 10 == 0: needs_metacognition = True # 触发条件 3:最近回退 if failed and failed[-1].get("outcome_type") == "failure": needs_metacognition = True if needs_metacognition: # 在下一轮改进前运行元认知分析 # Skill(abstract:metacognitive-self-mod)`## 何时使用(手动) - 在一批技能改进后评估哪些有效 - 改进结果出现回退时 - 定期(每月)精炼改进策略 - 当 skill-improver agent 看似无效时 ## 何时不使用 - 日常技能改进(直接使用 skill-improver) - 首次创建技能(使用 skill-authoring) ## 工作流 ### 第 1 步:加载改进数据 读取 improvement memory 与 performance tracker 数据:`bash # 检查是否存在改进记忆 MEMORY_FILE=~/.claude/skills/improvement_memory.json TRACKER_FILE=~/.claude/skills/performance_history.json if [ ! -f "$MEMORY_FILE" ]; then echo "未找到改进记忆。" echo "先运行 skill-improver 以生成改进数据。" exit 0 fi`使用 Python 加载 JSON 文件:`python from abstract.improvement_memory import ImprovementMemory from abstract.performance_tracker import PerformanceTracker from pathlib import Path memory = ImprovementMemory(Path.home() / ".claude/skills/improvement_memory.json") tracker = PerformanceTracker(Path.home() / ".claude/skills/performance_history.json")`### 第 2 步:分类改进结果 对记忆中的每条改进结果进行分类: - 有效:after_score - before_score >= 0.1- 中性:-0.1 < improvement < 0.1- 回退:after_score < before_score`python effective = memory.get_effective_strategies() failed = memory.get_failed_strategies() # 计算有效率 total = len(effective) + len(failed) if total > 0: effectiveness_rate = len(effective) / total`### 第 3 步:提取元模式 分析“哪些类型的改进成功/失败”: 成功模式: - 添加错误处理(降低失败率) - 添加示例(提高用户评分) - 添加安静/详细模式(减少摩擦) - 简化工作流步骤(缩短耗时) 失败模式: - 过度工程(添加过多选项) - 破坏现有工作流(回退) - 未经验证就增加复杂度 - 因冗长添加导致 token 预算溢出 对每种模式,记录为因果假设:`python memory.record_insight( skill_ref="_meta", # 用于元洞察的特殊引用 category="causal_hypothesis", insight="错误处理改进成功率为 85%", evidence=["skill-A v1.1.0: +0.3", "skill-B v2.1.0: +0.15"] )`### 第 4 步:分析改进趋势 使用 PerformanceTracker 识别: - 持续改进的技能(正趋势) - 尽管尝试改进仍恶化的技能 - 改进最有效的领域`python for skill_ref in tracker.get_all_skill_refs(): trend = tracker.get_improvement_trend(skill_ref) if trend is not None: if trend > 0.05: # 持续改进——哪些地方奏效? pass elif trend < -0.05: # 尽管改进仍恶化——需调查 pass`### 第 5 步:生成策略建议 基于元分析,为 skill-improver 生成建议: 1. 优先级公式调整:若某类问题改进成功率更高,则提高其权重。 2. 方法选择:若“添加错误处理”成功率 85%,而“重构工作流”仅 30%,则倾向错误处理。 3. 阈值调整:若优先级低于 3.0 的改进持续失败,则提高最低阈值。 4. 规避规则:记录未来改进需避免的反模式。 ### 第 6 步:存储元洞察 将所有发现记录回 ImprovementMemory,使用特殊_meta技能引用:`python # 记录策略建议 memory.record_insight( skill_ref="_meta", category="strategy_success", insight="建议:优先添加错误处理与示例,而非重构工作流", evidence=[f"成功率:error_handling={eh_rate:.0%}, restructure={rs_rate:.0%}"] )`### 第 7 步:更新 skill-improver 策略 若发现显著元洞察,向 skill-improver agent 提出具体修改: - 更新优先级公式中的权重 - 为已知反模式添加规避规则 - 基于实证数据调整阈值 - 添加已证明有效的新改进模式 重要:仅提出修改建议,勿自动应用。用户必须批准对改进过程的修改。 ## 输出`Metacognitive Self-Modification Report 改进数据: 总分析结果数:15 有效改进:11(73%) 回退:2(13%) 中性:2(13%) 成功模式: 1. 添加错误处理:5/6 成功(83%) 2. 添加示例:3/3 成功(100%) 3. 添加安静模式:2/2 成功(100%) 失败模式: 1. 重构工作流:1/3 成功(33%) 2. 大量 token 添加:0/1 成功(0%) 性能趋势: 改进中:8 项技能(正趋势) 稳定:4 项技能(无趋势) 恶化:1 项技能(尽管尝试改进仍负趋势) 建议: 1. 错误处理改进优先级权重 ×2 2. 优先级低于 8.0 时避免重构工作流 3. 新增内容限制在 200 token 以内,防止预算溢出 4. 下一轮改进周期聚焦恶化技能 X 元洞察已存储:improvement memory 新增 5 条记录`## Related -abstract:skill-improver— 本技能分析并为其提出修改的 agent -abstract:skills-eval— 评估框架,其标准可由元洞察精炼 -abstract:aggregate-logs` — 改进指标的数据来源