📦 Famous EnFamous
v1.0.0著名 | 48 个人机协作思想实验 | 牧羊人与牧羊犬 | 人类与 AI 如何协同完成任务 | 信任/委托/边界/责任……
0· 0·0 当前·0 累计
下载技能包
最后更新
2026/4/26
安全扫描
OpenClaw
安全
high confidence这是一个仅用于指令性思维实验的技能(48个协作场景);其声明的需求、指令和文件均与此目的保持一致,不要求额外的凭据、安装或系统访问。
评估建议
This skill appears to be a benign collection of 48 human–AI collaboration thought experiments and asks for no credentials or installs. Before installing, consider: (1) source provenance — no homepage or known owner is provided, so verify whether the content is from a trusted author if that matters to you; (2) copyright/licensing of the included text if you plan to redistribute; and (3) if you enable autonomous invocation, the agent could present or act on these scenarios without manual prompts (...详细分析 ▾
✓ 用途与能力
Name and description describe a collection of human–AI thought experiments; the skill requires no binaries, env vars, or installs and contains only documentation and command‑style prompts — all proportional to a content/utility skill.
✓ 指令范围
SKILL.md contains commands for listing/searching/reading the thought experiments and the experiments themselves; it does not instruct the agent to read local files, access environment variables, contact external endpoints, or perform unrelated system actions.
✓ 安装机制
No install specification or code files are present (instruction-only). Nothing will be downloaded or written to disk by an installer — lowest risk install profile.
✓ 凭证需求
The skill declares no required environment variables, credentials, or config paths; the content does not reference hidden secrets or unrelated services.
✓ 持久化与权限
always is false and model invocation is allowed (platform default). The skill does not request persistent privileges or to modify agent/system configuration.
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/4/26
Famous 1.0.0 — 首次发布 - 引入 48 个思想实验,以“牧羊人与牧羊犬”隐喻探索人机协作。 - 提供交互式命令:随机抽取、列表、搜索、对比及故事化实验。 - 涵盖核心主题:委托、信任、边界、责任、记忆与共同任务中的演化。 - 专为研究人机共事时的信任、决策与责任而设计。
● 无害
安装命令
点击复制官方npx clawhub@latest install famous-en
镜像加速npx clawhub@latest install famous-en --registry https://cn.longxiaskill.com
技能文档
代号:飞 Famous / 飞马
核心隐喻:牧羊人与牧羊犬——人类与 AI 一起放羊。谁决定方向?谁对“不丢羊”负责?
基于 Mayu(马语者)× Kai 的“马的设计”
指令前缀:/fm
交互指令
| 指令 | 功能 | |------|------| |/fm random | 随机抽取一个思想实验 |
| /fm list | 展示全部 48 个实验 |
| /fm ask [编号] | 查看某一实验完整内容 |
| /fm compare A+B | 并排对比两个实验 |
| /fm search [关键词] | 关键词搜索 |
| /fm story [编号] | 沉浸式故事化叙述 |
| /fm all | 完整系统介绍 | ---
核心隐喻
牧羊人有判断力,牧羊犬有执行力。 牧羊人知道“为何要去那片牧场”,牧羊犬知道“如何把走散的羊赶回来”。 但有时候牧羊犬把羊赶错方向,有时候牧羊人走神。 这就是人与 AI 的关系。 Famous 的 48 个实验,探讨协作过程中的 48 个关键瞬间。---
48 个思想实验完整列表
I. 委托与放手(#1-6)
人把任务交给 AI,什么该交,什么不该交?- 盲委托——你完全不懂 AI 怎么做,但结果一直很好,继续交吗?
- 最后一公里——AI 完成 95%,最后 5% 需你判断,你会因“AI 都做完了”而跳过判断吗?
- 过度委托——你越来越依赖 AI,直到有一天发现自己什么都不会了。
- 委托召回——发现 AI 出错,却已无法撤回,算谁的错?
- 隐性委托——你没说“帮我做”,AI 却从你的行为推断并代劳。
- 升级——AI 把小活干得很好,你把大活也交给它,直到它遇到搞不定而你以为它能搞定的事。
II. 信任与校准(#7-12)
人对 AI 的信任是太多还是太少?- 信任过载——AI 连续 100 次都对,第 101 次错你没检查,是 AI 的问题还是你的?
- 信任不足——AI 次次都对,你却次次检查,浪费多少时间?AI 会不会因此给你更保守的建议?
- 信任迁移——你在领域 A 信任 AI,就自动在领域 B 也信任,但 AI 并不擅长 B。
- 信任修复——AI 搞砸一次大事,要多少次正确才能赢回信任?
- 非对称信任——你信 AI 的数据处理,不信其判断,这种“分区信任”合理吗?
- 信任校准——你对 AI 信任 80%,其实它准确率 65%,你怎么发现这落差?
III. 判断与决策权(#13-18)
最终谁拍板?- 顾问 vs 决策者——AI 分析利弊,你反着做决定却错了,下次还听 AI 吗?
- AI 否决权——若 AI 认为你的决定风险巨大,它该有否决权吗?
- 静默判断——AI 在后台默默筛掉它认为差的选项,只给你看它觉得好的,你不知还有其他可能。
- 道德委托——你让 AI 做道德判断,但道德能委托吗?委托后还是“你的”判断吗?
- 分歧仲裁——你与 AI 意见不合,何时听 AI?何时 AI 听你?
- 集体决策——3 人 + 1 AI 共同投票,AI 的票该和人等权吗?
IV. 记忆与共享状态(#19-24)
当人与 AI 共享记忆,会发生什么?- 记忆外包——你不再记羊群细节——多少只、谁生病、谁走丢——全依赖牧羊犬项圈记录。某天项圈坏了,你面对 300 只羊一只不识。
- 选择性记忆——AI 只记你让它记的,却删掉它认为不重要的,而那条被删信息未来恰好关键。
- 共享记忆——你们共同经历一事,你的记忆带情绪,AI 的记忆只有数据,哪份为准?