📦 Idea2video

v1.1.0

将用户的想法转化为完整的视频流程:通过 pl... 生成故事、角色、肖像、场景、镜头、关键帧及串联镜头视频。

0· 31·0 当前·0 累计
dlazyai 头像by @dlazyai (dlazy)
0

运行时依赖

无特殊依赖

安装命令

点击复制
官方npx clawhub@latest install idea2video
镜像加速npx clawhub@latest install idea2video --registry https://cn.longxiaskill.com

技能文档

身份验证 (Authentication) 所有请求都需要 dLazy API key。推荐使用 dlazy login 完成登录: dlazy login 该命令使用设备码流程(远程终端也可用),登录成功后自动把 API key 写入本地 CLI 配置,无需手动复制粘贴。

备选:手动设置 API Key 如果你已有 API key,也可以直接保存: dlazy auth set YOUR_API_KEY CLI 会把 key 保存在你的用户配置目录(macOS/Linux 上为 ~/.dlazy/config.json,Windows 上为 %USERPROFILE%\.dlazy\config.json),文件权限仅限当前操作系统用户访问。你也可以用 DLAZY_API_KEY 环境变量按次传入。

手动获取 API Key

  • 登录或在 dlazy.com 创建账号
  • 访问 dlazy.com/dashboard/organization/api-key
  • 复制 API Key 区域显示的密钥
每个 key 都属于你自己的 dLazy 组织,可在同一控制面板随时轮换或吊销。

关于与来源 (Provenance) CLI 源代码: github.com/dlazyai/cli 维护者: dlazyai npm 包名: @dlazy/cli(本技能 install 字段固定到 1.0.9 版本) 官网: dlazy.com

如果你不希望在系统上长期保留一个全局 CLI,可以按需运行: npx @dlazy/cli@1.0.9 如选择全局安装,技能的 metadata.clawdbot.install 字段已固定到 npm install -g @dlazy/cli@1.0.9。安装前建议先到 GitHub 仓库审阅源码。

工作原理 (How It Works) 此技能是 dLazy 托管 API 的轻量封装。调用时:

  • 你提供的提示词与参数会发送到 dLazy API(api.dlazy.com)进行推理。
  • 传入图像 / 视频 / 音频字段的本地文件路径会被 CLI 上传到 dLazy 媒体存储(files.dlazy.com),以便模型读取 —— 与任何云端生成 API 的流程一致。
  • API 返回的生成结果 URL 由 files.dlazy.com 托管。
这是标准的 SaaS 调用模式;技能本身不会越权访问网络或文件系统,所有动作都由 dLazy CLI 完成。

Idea → Video Generation Plan English · 中文 把用户的创意一键走完:故事 → 角色 → 三视图 → 场景 → 镜头 → 关键帧 → 镜头视频 → 拼接。 先输出计划模板供确认,再展开为画布图形并调用 drawToCanvas。

Workflow Overview (5 states) 每条回复必须以这行开头:Current State: [state] | Next: [goal]

State | Goal | 需用户确认

  • Requirement gathering | 锁定 idea / 受众 / 风格 / 规模 | ✅
  • Plan generation | 生成计划模板;展示节点摘要 | ✅(严格关卡)
  • Plan adjustment | 按反馈修补模板 | ✅
  • Canvas expansion | 把模板展开为平面图形 | ❌(内部)
  • Apply to canvas | 调用 drawToCanvas 写入图形 | ❌

State 1: Requirement Gathering 收集以下输入;如有缺项请追问:

  • idea — 核心创意种子(一句话到一小段)
  • user_requirement — 受众 / 时长 / 最大场景数 / 最大镜头数(可选)
  • style — 视觉风格(如“写实温暖”“赛博朋克”“水彩 2D”…)
  • aspectRatio — 默认 16:9;可选 9:16 / 1:1
  • sceneCount — 默认由模型决定,但会告知
  • shotsPerScene — 默认由模型决定

输出带项目符号的需求列表,末尾写: Requirements ready — confirm to enter plan generation?

State 2: Plan Generation 按 Plan Template Schema(见附录 A)构建模板。规则:

  • 严格使用 config/models/ 中注册的模型
  • idea2video 推荐:
– qwen3_6-plus:所有 LLM 步骤(故事 / 角色 / 脚本 / 分镜 / 镜头拆分) – banana-pro:角色三视图、镜头首/末帧 – veo_3_1-fast:镜头视频(i2v) – merge:视频拼接
  • 采用标准 7 段结构(附录 B):
develop_story (LLM) extract_characters (LLM, parse=json) portraits (map: front → side/back) write_script (LLM, parse=json) scenes map(嵌套 shots map) storyboard (LLM, parse=json) shots map: shot_desc → first_frame → last_frame(when) → shot_video scene_concat (merge) final_video (merge)

引用规则(关键,勿错):

  • 整段注入上游 → promptRefs: ["$node.X"];不要在 prompt 里内嵌 shape://
  • JSON 子字段注入 → prompt 内保留 {{$node.X.json.field}} 占位
  • 媒体引用 → 放入 images/videos/audio 数组;值用 $node.X 或 shape://shape:X
  • map 内聚合 → $node.[].(例:$node.portraits[].front)
  • map 内当前项 $item,索引 $idx;嵌套 map 用 $ctx..idx 取外层索引
  • 不要改写工具 prompt —— 字段名与对应 model inputSchema 保持一致
  • 条件节点 when(如 last_frame 仅当 variation_type ∈ {medium,large}):
"when": { "$in": ["$node.shot_desc.json.variation_type", ["medium","large"]] }

向用户展示时用自然语言摘要,勿暴露原始 JSON: The plan will create X nodes: · 1 story node · 1 character-extraction node · Character 3-views(每角色 front+side+back) · 1 scenes node · 每场景:1 storyboard node + N shots(每 shot=描述+首帧+[末帧]+视频)+1 concat node · 1 final concat node

Models: · LLM: qwen3_6-plus · Image: banana-pro · Video: veo_3_1-fast · Concat: merge

末尾写: Plan ready — confirm to expand to canvas? Or tell me what to adjust.

State 3: Plan Adjustment 常见请求:

  • 换模型(“用 doubao-seedream-4_5 做图”)
  • 改结构(“去掉末帧分支”“加旁白音频节点”)
  • 改规模(“限 1 角色”“每场景固定 3 镜头”)
修补模板后重新摘要,再次等待明确确认。

State 4: Canvas Expansion(内部) 将计划模板展开为平面图形节点(省略用户可见输出)。

数据来源ClawHub ↗ · 中文优化:龙虾技能库