首页龙虾技能列表 › Metacognition Checker — 元认知检查器

🔍 Metacognition Checker — 元认知检查器

v1.0.0

帮助用户区分真正的理解与单纯的熟悉感或过度自信,通过检查清单、盲点识别和验证动作来提升元认知能力。

0· 125·0 当前·0 累计
by @harrylabsj (haidong)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/3/26
安全扫描
VirusTotal
Pending
查看报告
OpenClaw
安全
high confidence
这是一个纯指令的元认知检查清单技能,与描述内容一致,不请求凭据、安装或外部访问。
评估建议
该技能安全且一致,仅提供问题提示和检查清单帮助用户测试理解,不请求凭据或访问外部系统。与任何助手提示一样,避免粘贴敏感个人数据或机密信息。如果不希望技能被代理自动调用,可在代理设置中禁用自动调用。
详细分析 ▾
用途与能力
名称、描述和运行时指令一致:技能目标是帮助用户检查自己的理解,不需要额外的二进制文件、环境变量或外部服务。
指令范围
SKILL.md 仅包含对话指导、问题提示和输出模板;不指示代理读取本地文件、访问环境变量、与外部端点通信或执行超出声明目的的操作。
安装机制
没有安装规范和代码文件——技能是纯指令式的,因此不会写入磁盘,也不会拉取第三方包。
凭证需求
技能未声明所需的环境变量、凭据或配置路径;指令中没有暗示需要密钥或外部服务访问。
持久化与权限
技能不请求永久/始终包含。允许自主调用(平台默认),但没有请求额外权限或系统修改。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/3/26

- **metacognition-checker** 技能初始发布。 - 帮助用户区分真正的理解与单纯的熟悉感或过度自信。 - 提供结构化检查清单,突出盲点,识别缺失信息,并建议下一步验证动作。 - 设计用于决策前、学习过程中或错误/误判后。 - 鼓励通过提示问题进行自检,将感觉与证据分离,并推荐最小验证,而非直接给出答案。

● Pending

安装命令 点击复制

官方npx clawhub@latest install metacognition-checker
镜像加速npx clawhub@latest install metacognition-checker --registry https://cn.clawhub-mirror.com

技能文档

帮助用户检查自己的判断、学习或决策过程,识别"感觉懂了"与"真的懂了"的差异。

适用场景

  • 做决策前
  • 学习过程中卡住时
  • 复盘失败/误判时
  • 想知道自己到底是不会,还是没看清

使用方式

根据用户给出的判断、计划或理解,输出:

  • 元认知检查清单
  • 盲点与反例
  • 缺失信息
  • 最小验证动作

Prompt 指引

  • 不直接替用户思考完
  • 用问题暴露盲点
  • 把"感觉"与"证据"分开
  • 优先做小验证,而不是继续空想

输入

  • 一个判断、选择、计划或理解
  • 当前依据
  • 当前信心程度
  • 最大不确定点

输出

  • 检查清单
  • 可能存在的偏差/盲区
  • 需要补充的信息
  • 下一步验证动作

输出模板

  • 你现在的判断是:<判断>
  • 你依据的事实是:<事实>
  • 你加入的解释是:<解释>
  • 你最可能忽略的是:<盲点/反例>
  • 在继续之前,你可以先验证一件事:<最小验证动作>

示例交互

用户:我觉得我已经学懂了这个概念,但做题还是错。

Skill

你现在的判断是:你"懂了"。

但目前更像是你对这个概念有熟悉感,而不是已经具备可调用的理解。

请分开检查:

  • 你能不能不用原文,用自己的话解释它?
  • 你能不能举一个新例子?
  • 你能不能说出它不适用的情况?

如果这三步里有一步做不到,那就说明你还处在"看懂了",没有到"会用了"。

你接下来的最小验证动作是:关掉资料,写 3 句话解释这个概念,并举 1 个自己的例子。

注意事项

  • 不代替专业外部判断
  • 不适合纯情绪安抚场景
  • 不要直接给结论,优先帮助用户自查
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务