运行时依赖
安装命令
点击复制技能文档
身份验证 (Authentication) 所有请求都需要 dLazy API key。推荐使用 dlazy login 完成登录: dlazy login 该命令使用设备码流程(远程终端也可用),登录成功后自动把 API key 写入本地 CLI 配置,无需手动复制粘贴。
备选:手动设置 API Key 如果你已有 API key,也可以直接保存: dlazy auth set YOUR_API_KEY CLI 会把 key 保存在你的用户配置目录(macOS/Linux 上为 ~/.dlazy/config.json,Windows 上为 %USERPROFILE%\.dlazy\config.json),文件权限仅限当前操作系统用户访问。你也可以用 DLAZY_API_KEY 环境变量按次传入。
手动获取 API Key
- 登录或在 dlazy.com 创建账号
- 访问 dlazy.com/dashboard/organization/api-key
- 复制 API Key 区域显示的密钥
关于与来源 (Provenance) CLI 源代码: github.com/dlazyai/cli 维护者: dlazyai npm 包名: @dlazy/cli(本技能 install 字段固定到 1.0.9 版本) 官网: dlazy.com
如果你不希望在系统上长期保留一个全局 CLI,可以按需运行: npx @dlazy/cli@1.0.9 如选择全局安装,技能的 metadata.clawdbot.install 字段已固定到 npm install -g @dlazy/cli@1.0.9。安装前建议先到 GitHub 仓库审阅源码。
工作原理 (How It Works) 此技能是 dLazy 托管 API 的轻量封装。调用时:
- 你提供的提示词与参数会发送到 dLazy API(api.dlazy.com)进行推理。
- 传入图像 / 视频 / 音频字段的本地文件路径会被 CLI 上传到 dLazy 媒体存储(files.dlazy.com),以便模型读取 —— 与任何云端生成 API 的流程一致。
- API 返回的生成结果 URL 由 files.dlazy.com 托管。
Idea → Video Generation Plan English · 中文 把用户的创意一键走完:故事 → 角色 → 三视图 → 场景 → 镜头 → 关键帧 → 镜头视频 → 拼接。 先输出计划模板供确认,再展开为画布图形并调用 drawToCanvas。
Workflow Overview (5 states) 每条回复必须以这行开头:Current State: [state] | Next: [goal]
State | Goal | 需用户确认
- Requirement gathering | 锁定 idea / 受众 / 风格 / 规模 | ✅
- Plan generation | 生成计划模板;展示节点摘要 | ✅(严格关卡)
- Plan adjustment | 按反馈修补模板 | ✅
- Canvas expansion | 把模板展开为平面图形 | ❌(内部)
- Apply to canvas | 调用 drawToCanvas 写入图形 | ❌
State 1: Requirement Gathering 收集以下输入;如有缺项请追问:
- idea — 核心创意种子(一句话到一小段)
- user_requirement — 受众 / 时长 / 最大场景数 / 最大镜头数(可选)
- style — 视觉风格(如“写实温暖”“赛博朋克”“水彩 2D”…)
- aspectRatio — 默认 16:9;可选 9:16 / 1:1
- sceneCount — 默认由模型决定,但会告知
- shotsPerScene — 默认由模型决定
输出带项目符号的需求列表,末尾写: Requirements ready — confirm to enter plan generation?
State 2: Plan Generation 按 Plan Template Schema(见附录 A)构建模板。规则:
- 严格使用 config/models/ 中注册的模型
- idea2video 推荐:
- 采用标准 7 段结构(附录 B):
引用规则(关键,勿错):
- 整段注入上游 → promptRefs: ["$node.X"];不要在 prompt 里内嵌 shape://
- JSON 子字段注入 → prompt 内保留 {{$node.X.json.field}} 占位
- 媒体引用 → 放入 images/videos/audio 数组;值用 $node.X 或 shape://shape:X
- map 内聚合 → $node.[].(例:$node.portraits[].front)
- map 内当前项 $item,索引 $idx;嵌套 map 用 $ctx..idx 取外层索引
- 不要改写工具 prompt —— 字段名与对应 model inputSchema 保持一致
- 条件节点 when(如 last_frame 仅当 variation_type ∈ {medium,large}):
向用户展示时用自然语言摘要,勿暴露原始 JSON: The plan will create X nodes: · 1 story node · 1 character-extraction node · Character 3-views(每角色 front+side+back) · 1 scenes node · 每场景:1 storyboard node + N shots(每 shot=描述+首帧+[末帧]+视频)+1 concat node · 1 final concat node
Models: · LLM: qwen3_6-plus · Image: banana-pro · Video: veo_3_1-fast · Concat: merge
末尾写: Plan ready — confirm to expand to canvas? Or tell me what to adjust.
State 3: Plan Adjustment 常见请求:
- 换模型(“用 doubao-seedream-4_5 做图”)
- 改结构(“去掉末帧分支”“加旁白音频节点”)
- 改规模(“限 1 角色”“每场景固定 3 镜头”)
State 4: Canvas Expansion(内部) 将计划模板展开为平面图形节点(省略用户可见输出)。