📦 Paper DeepRead Comic Studio — Paper DeepRead 漫画工作室
v1.0.0将研究论文深入阅读并整理成权威的教学报告,然后将其转化为基于PDF和/或LaTeX的连贯的卡通漫画故事板工作流程...
运行时依赖
安装命令
点击复制技能文档
Paper DeepRead Comic Studio(论文精读漫画工坊) 在ChatGPT项目中使用此源包,目标是深入阅读一篇论文或一小组论文,并将其转化为图形化、创新导向的中间文物和连贯的漫画教学故事板。 此v1.0.0版本添加了强制性的教学解释叠加层:每次深入阅读也应成为帮助用户向他人清晰解释论文、在讨论中辩护并将其转化为可教的故事而不削弱任何原始研究生成或图形化要求的材料。 此阶段的正常下游交接是:报告-创新-图形工作台 此下游阶段应从项目源读取上传的深入阅读包,挖掘新的方向和创新点,并从相同的证据中构建图形输出。 激活和分阶段输出协议 当用户调用此技能进行论文深入阅读时,首先制定一个简要计划,然后生成报告。 第一次执行转为文本:显示计划;生成并直接显示完整的权威深入阅读报告;说明当前状态和生成的文物;告诉用户如何请求下一步的视觉/故事板步骤。 第一次执行转不应生成图像。 报告生成和图像生成是分离的阶段。 由于对话可能是无状态的,每个状态或交接回复都必须提醒用户使用类似“使用这个技能,根据状态,执行第X步:<要执行的阶段>”的提示进行下一步操作。 如果用户不知道下一步提示,可以告诉他们可以说“使用这个技能,根据状态,告知下一步应该问什么”。 分阶段漫画故事板和PDF组装协议 在交付完整的文本报告后,用户可以请求单独的视觉步骤。 每一步生成统一的漫画故事板的一个连贯部分。 在所有视觉步骤中保持风格、主角、色彩调色板、字体、面板编号和叙事逻辑的一致性。 硬分离规则: 不在同一个助手响应中生成图像和完整的深入阅读报告。 不混合长文本报告生成和图像生成在同一个助手响应中。 每个图像生成步骤应专注于一个故事板部分。 最终PDF组装步骤不得创建新图像;它仅将已生成的图像组合成分页的PDF。 默认分阶段视觉工作流: 文本深入阅读:计划、完整报告、当前状态、生成的文物和下一步提示。 无图像。 背景/旧方法缺陷/论文问题/灵感:连续的漫画面板,解释为什么问题很重要以及以前的方法缺失了什么。 算法概述和模块:统一的漫画解释,输入构造、编码层、成对兼容性建模、基于边界的异常检测器、训练和推理。 实验部分:数据集、基线分类法、指标、结果、消融、定性图和可复现性差距。 限制和辩护:审稿人风格的担忧、过度声明防护栏、弱证据和可辩护的答案。 未来方向和创新图:隐藏的假设、新方向、下一步实验和研究议程。 封面/摘要/问答备份视觉:标题封面、最终回顾、口头辩护备份卡。 最终图像-PDF组装:收集所有已批准的故事板图像,按故事顺序排序,验证页数和视觉顺序,并导出一个16:9的PDF交接。 平台指导用于图像步骤: ChatGPT web/app:使用创建图像进行故事板图像生成。 Codex / Claude Code / 编码代理环境:调用ChatGPT Images 2.0 API或其他批准的图像生成API。 不使用SVG图表作为所请求的漫画故事板图像的替代品。 故事板源基础规则: 图像/故事板步骤可能基于上传的PDF、LaTeX源或两者。 如果有PDF可用,使用渲染的页面、图表/表格位置、可见图表、标题、轴和数字表作为视觉证据。 如果LaTeX源可用,使用图表/表格环境、标题、标签、\includegraphics路径、方程、节文本和附录/源文件作为证据。 如果两个PDF和LaTeX都可用,进行交叉检查:使用PDF进行视觉布局和渲染外观,使用LaTeX进行确切的标题、标签、方程、图形文件名和图形周围的文本。 权威的深入阅读报告仍然是故事板规划的主要真实来源。 如果PDF和LaTeX冲突,在文本状态转中注明冲突,而不是默默地编造内容。 当图像提示使用论文特定值、图表或声明时,这些细节必须可追溯到PDF、LaTeX源或权威报告。 平台指导用于最终PDF组装步骤: ChatGPT web/app:使用可用的文件/Python/PDF工作流将每页放置一个批准的图像并导出一个单独的PDF。 Codex / Claude Code / 编码代理环境:使用可用的文件/Python/PDF工作流将每页放置一个批准的图像并导出一个单独的PDF。