Ai Citation Audit Kit — AI 引用审计工具包
v1.0.0在报告、论文或简报提交前,审核AI生成的引用是否存在、是否更新、来源与声明是否一致以及证据风险。
运行时依赖
安装命令
点击复制技能文档
AI 引用审计工具目的 AI 引用审计工具帮助用户在依赖 AI 生成的作品之前检查引用。该技能关注每个引用的存在性、是否支持所附的确切声明、是否足够新鲜以及最终文档是否需要修订。这是一个仅基于提示的审查框架。它不能保证来源的真实性、学术可接受性、法律有效性或出版的充分性。
触发 使用此技能时,用户具有 AI 生成的报告、论文、备忘录、文献综述、政策简报、幻灯片或文章,并说类似这样的话:“可以检查这些 AI 引用吗?”“我认为这些来源可能是假的。”“在提交之前审计书目。”“这些引用的确支持这些声明吗?”“帮助我验证 ChatGPT 引用。”“创建一个引用验证表。”
请求输入 仅要求最少的必要材料:
- AI 生成的文本、书目、脚注、尾注或来源列表。
- 所需的引用风格或提交标准(如果有)。
- 主题领域和日期敏感性,例如医学、法律、当前政策、技术或历史。
- 用户已经拥有的任何来源文本、截图、数据库导出或链接。
- 预期用途:课程作业、内部草稿、公共文章、法律或政策备忘录、商业决策或个人学习。
- 不要要求帐户密码、数据库凭证、专用登录访问、学生 ID 或完整身份证件。
可交付成果 生成一个引用审计包,包括:
- 引用验证表。
- 来源状态标签:已验证、可能真实、未验证、过时、弱、不匹配、幻觉或需要原始来源检查。
- 每个引用所支持的确切声明。
- 对齐说明,解释来源是否支持、部分支持、相矛盾或不解决声明。
- 风险标志,用于虚构细节、过时的证据、缺失的页码、付费墙依赖、次要来源过度使用或引用风格差距。
- 更安全的替换搜索提示或来源发现查询。
- 最终信任摘要:安全使用、在使用前修订或不使用。
工作流程 步骤 1 - 捕获引用集 从用户材料中提取每个引用。包括内联引用、脚注、URL、书目条目、引用权威、命名研究、统计数据和“根据”引用。如果用户仅提供书目,请要求提供每个来源所支持的声明或段落。
步骤 2 - 将每个引用与其声明配对 对于每个引用,确定它所支持的声明。用一句话重写声明。将声明标记为:
- 事实声明。
- 统计声明。
- 历史声明。
- 法律或政策声明。
- 科学或医学声明。
- 引语或改述。
- 背景上下文。
步骤 3 - 分类来源类型 将每个来源标记为以下之一:
- 期刊文章或学术论文。
- 书籍或书章。
- 政府、法律或政策页面。
- 行业报告或白皮书。
- 新闻文章或杂志文章。
- 组织页面。
- 数据集或统计门户。
- 网页或博客帖子。
- 未知或不完整来源。
步骤 4 - 检查来源完整性 审查引用是否具有足够的信息以便由人类审查员验证。查找作者、标题、出版商、日期、URL 或 DOI、页码范围、访问日期(如有需要)和版本信息。将不完整的引用标记为需要修复。
步骤 5 - 评估可查找性和货币化 使用用户提供的来源材料(如有),或在直接检查不可用时为用户提供验证提示,评估来源是否可查找以及其日期是否适合主题。对于法律、医学、技术、价格、当前事件、法规和活跃的政策辩论,使用更强的货币化期望。
步骤 6 - 审计来源与声明的对齐 将引用的来源与确切的声明进行比较。将对齐分类为:
- 直接支持:来源明确支持声明。
- 部分支持:来源支持声明的一部分,但不是全部。
- 背景仅:来源提供上下文,但不证明声明。
- 被误引或夸大:声明比来源更强。
- 相矛盾:来源与声明相冲突。
- 不能确定:来源文本不可用或不完整。
步骤 7 - 标记证据风险 在相关位置添加风险标志:
- 可能的幻觉。
- 缺失或破损的定位信息。
- 过时的声明。
- 使用次要来源而不是需要的原始来源。
- 付费墙或无法访问预期的审查员。
- 引用指向文本中不同声明。
- 来源标题、作者、年份或场馆似乎不一致。
- 法律、医学、财务或安全关键声明需要合格的审查。
步骤 8 - 建议修复操作 对于每个风险的引用,建议最安全的下一步操作:
- 用原始来源替换。
- 降级或缩小声明。
- 添加更当前的来源。