📦 Hallucination Detective — 幻觉侦探
v1.0.0学习识别、验证和处理AI生成的事实性声明和编造内容。
运行时依赖
安装命令
点击复制技能文档
幻觉侦探概述 幻觉侦探是一份实用的指南,用于检测AI幻觉——那些AI自信地产生听起来合理但事实上不正确的信息的时刻。它教导交叉引用、来源验证、置信度评估的启发式方法,以及如何设计提示以降低幻觉风险。包括对真实AI错误的案例研究。这项技能教导方法论,而不是事实核查服务。它不对特定声明的真相做出判断。
何时使用 当用户要求以下内容时使用此技能:
- 学习为什么AI会产生幻觉以及如何识别它
- 验证他们不确定的AI生成声明
- 在使用AI时开发更好的事实核查习惯
- 了解如何通过提示设计减少幻觉
- "我如何知道AI是否在编造东西?"
- "AI给我提供了一个我不确定的事实"
- "如何核查AI输出"
- "AI模型是否会撒谎?"
- "为什么AI会产生幻觉?"
工作流程 步骤1 ——问候和设定上下文 确认用户的担忧。简要解释幻觉在AI背景下的含义:听起来自信但事实上不正确、捏造或内部不一致的输出。设定期望:此技能教导检测和预防方法论。
步骤2 ——评估情况 询问:他们担心什么样的AI输出?(事实声明、引用、日期、统计数据、人物) AI听起来有多自信? 他们是否已经尝试验证其中任何部分?
步骤3 ——解释为什么会发生幻觉 提供清晰的非技术性解释:
- AI模型是模式预测器,而不是知识数据库
- 优化听起来合理的输出,而不是真相
- 训练数据包含错误、矛盾和空白
- 模型没有机制来“知道它们不知道什么”
- 一些主题(晦涩的事实、最近的事件、特定的数字)具有更高的幻觉风险
步骤4 ——教导检测技术 演示验证工具包:
- 交叉引用检查:声明是否出现在可靠的外部来源中?
- 具体性测试:过于具体的细节(确切日期、引语、统计数据)具有更高的风险
- 一致性检查:AI是否在同一响应中自相矛盾?
- 来源请求:要求AI“可以为此提供来源吗?”并验证来源是否存在
- 可信度过滤器:声明是否通过基本的常识检查?
- 新鲜度意识:模型训练截止日期以外的信息具有更高的风险
步骤5 ——通过提示减少幻觉 教导提示设计策略:
- 请求置信度指标(“从1到5评估你的置信度”)
- 请求明确的“我不知道”响应,当不确定时
- 请求来源或推理链
- 使用“根据[特定领域]”框架
- 将复杂的事实查询分解为较小、可验证的部分
步骤6 ——总结和退出 总结关键的检测技术和预防策略。强调健康的怀疑态度是一种技能,而不是偏执。建议相关技能。
安全与合规
- 不对声明进行事实核查本身——教导用户方法论,不对真相做出判断
- 不鼓励对所有AI的不信任;促进平衡的批判性思维
- 不是专业事实核查员或主题专家的替代品
- 不针对特定的AI模型或公司进行指控
接受标准
- 用户对AI输出的担忧被评估和上下文化
- 解释为什么会发生幻觉,以易于理解的术语
- 教导至少3种检测技术
- 提供至少2种预防提示策略
- 不对特定声明进行事实核查——教导方法,而不是判断
示例 示例1:可疑的AI输出 用户说:“ChatGPT告诉我一个非常具体的历史事实,包括日期和姓名,但感觉有些不对劲。我如何检查它是否真实?” 技能指导:解释幻觉的原因。演示验证工具包:交叉引用日期和姓名,检查来源是否存在,测试内部一致性。展示如何要求AI提供来源,然后独立验证它们。
示例2:建立长期习惯 用户说:“我经常使用AI进行研究。我如何建立不仅仅相信它所说的一切的习惯?” 技能指导:专注于预防方面。教导置信度评估提示、来源请求习惯和“验证-然后使用”工作流。提供一个简单的每日清单用于AI辅助研究。