📦 Famous EnFamous

v1.0.0

著名 | 48 个人机协作思想实验 | 牧羊人与牧羊犬 | 人类与 AI 如何协同完成任务 | 信任/委托/边界/责任……

0· 0·0 当前·0 累计
下载技能包
最后更新
2026/4/26
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
这是一个仅用于指令性思维实验的技能(48个协作场景);其声明的需求、指令和文件均与此目的保持一致,不要求额外的凭据、安装或系统访问。
评估建议
This skill appears to be a benign collection of 48 human–AI collaboration thought experiments and asks for no credentials or installs. Before installing, consider: (1) source provenance — no homepage or known owner is provided, so verify whether the content is from a trusted author if that matters to you; (2) copyright/licensing of the included text if you plan to redistribute; and (3) if you enable autonomous invocation, the agent could present or act on these scenarios without manual prompts (...
详细分析 ▾
用途与能力
Name and description describe a collection of human–AI thought experiments; the skill requires no binaries, env vars, or installs and contains only documentation and command‑style prompts — all proportional to a content/utility skill.
指令范围
SKILL.md contains commands for listing/searching/reading the thought experiments and the experiments themselves; it does not instruct the agent to read local files, access environment variables, contact external endpoints, or perform unrelated system actions.
安装机制
No install specification or code files are present (instruction-only). Nothing will be downloaded or written to disk by an installer — lowest risk install profile.
凭证需求
The skill declares no required environment variables, credentials, or config paths; the content does not reference hidden secrets or unrelated services.
持久化与权限
always is false and model invocation is allowed (platform default). The skill does not request persistent privileges or to modify agent/system configuration.
安全有层次,运行前请审查代码。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/4/26

Famous 1.0.0 — 首次发布 - 引入 48 个思想实验,以“牧羊人与牧羊犬”隐喻探索人机协作。 - 提供交互式命令:随机抽取、列表、搜索、对比及故事化实验。 - 涵盖核心主题:委托、信任、边界、责任、记忆与共同任务中的演化。 - 专为研究人机共事时的信任、决策与责任而设计。

无害

安装命令

点击复制
官方npx clawhub@latest install famous-en
镜像加速npx clawhub@latest install famous-en --registry https://cn.longxiaskill.com

技能文档

代号:飞 Famous / 飞马
核心隐喻:牧羊人与牧羊犬——人类与 AI 一起放羊。谁决定方向?谁对“不丢羊”负责?
基于 Mayu(马语者)× Kai 的“马的设计”

指令前缀:/fm

交互指令

| 指令 | 功能 | |------|------| | /fm random | 随机抽取一个思想实验 | | /fm list | 展示全部 48 个实验 | | /fm ask [编号] | 查看某一实验完整内容 | | /fm compare A+B | 并排对比两个实验 | | /fm search [关键词] | 关键词搜索 | | /fm story [编号] | 沉浸式故事化叙述 | | /fm all | 完整系统介绍 |

---

核心隐喻

牧羊人有判断力,牧羊犬有执行力。 牧羊人知道“为何要去那片牧场”,牧羊犬知道“如何把走散的羊赶回来”。 但有时候牧羊犬把羊赶错方向,有时候牧羊人走神。 这就是人与 AI 的关系。 Famous 的 48 个实验,探讨协作过程中的 48 个关键瞬间。

---

48 个思想实验完整列表

I. 委托与放手(#1-6)

人把任务交给 AI,什么该交,什么不该交?

  • 盲委托——你完全不懂 AI 怎么做,但结果一直很好,继续交吗?
  • 最后一公里——AI 完成 95%,最后 5% 需你判断,你会因“AI 都做完了”而跳过判断吗?
  • 过度委托——你越来越依赖 AI,直到有一天发现自己什么都不会了。
  • 委托召回——发现 AI 出错,却已无法撤回,算谁的错?
  • 隐性委托——你没说“帮我做”,AI 却从你的行为推断并代劳。
  • 升级——AI 把小活干得很好,你把大活也交给它,直到它遇到搞不定而你以为它能搞定的事。

II. 信任与校准(#7-12)

人对 AI 的信任是太多还是太少?

  • 信任过载——AI 连续 100 次都对,第 101 次错你没检查,是 AI 的问题还是你的?
  • 信任不足——AI 次次都对,你却次次检查,浪费多少时间?AI 会不会因此给你更保守的建议?
  • 信任迁移——你在领域 A 信任 AI,就自动在领域 B 也信任,但 AI 并不擅长 B。
  • 信任修复——AI 搞砸一次大事,要多少次正确才能赢回信任?
  • 非对称信任——你信 AI 的数据处理,不信其判断,这种“分区信任”合理吗?
  • 信任校准——你对 AI 信任 80%,其实它准确率 65%,你怎么发现这落差?

III. 判断与决策权(#13-18)

最终谁拍板?

  • 顾问 vs 决策者——AI 分析利弊,你反着做决定却错了,下次还听 AI 吗?
  • AI 否决权——若 AI 认为你的决定风险巨大,它该有否决权吗?
  • 静默判断——AI 在后台默默筛掉它认为差的选项,只给你看它觉得好的,你不知还有其他可能。
  • 道德委托——你让 AI 做道德判断,但道德能委托吗?委托后还是“你的”判断吗?
  • 分歧仲裁——你与 AI 意见不合,何时听 AI?何时 AI 听你?
  • 集体决策——3 人 + 1 AI 共同投票,AI 的票该和人等权吗?

IV. 记忆与共享状态(#19-24)

当人与 AI 共享记忆,会发生什么?

  • 记忆外包——你不再记羊群细节——多少只、谁生病、谁走丢——全依赖牧羊犬项圈记录。某天项圈坏了,你面对 300 只羊一只不识。
  • 选择性记忆——AI 只记你让它记的,却删掉它认为不重要的,而那条被删信息未来恰好关键。
  • 共享记忆——你们共同经历一事,你的记忆带情绪,AI 的记忆只有数据,哪份为准?
数据来源ClawHub ↗ · 中文优化:龙虾技能库