📦 AI Contents Generator — AI Contents 生成器

v1.0.0

自动化病毒式内容抓取,分析钩子,生成原创脚本与字幕,定时发布,并优化自维持的内容管道。

0· 18·0 当前·0 累计
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
可疑
high confidence
该技能的说明与其声明的用途(抓取、分析、生成并自动发布内容)一致,但注册元数据错误地标注“无需凭据”,且未提及运行时显然需要的额外发布凭据——这一不匹配,加上自主发布范围,在未进一步澄清前存在风险。
评估建议
This 技能 looks like a plausible content-scrAPIng + generation 流水线, but the package metadata is inconsistent with the 运行time instructions. Before 安装ing or 运行ning it: 1) assume it needs at least APIFY_令牌 and an Anthropic/Claude key (the 技能.md shows these); also expect it will need publishing API keys (Buffer, Later, Hootsuite, Instagram/TikTok/X) to actually auto-post — the registry should have declared these but does not. 2) Only provide 凭证s you trust this unknown source with; prefer creating limi...
详细分析 ▾
用途与能力
The 技能.md implements the advertised 流水线 (APIfy scrAPIng, Anthropic/Claude content generation, scheduling/publishing). The high-level capabilities align with the name/description.
指令范围
The instructions tell the 代理 to scrape multiple social 平台s, call third-party APIs (APIfy, Anthropic), and auto-schedule/publish posts. This grants broad network 访问 and the ability to collect and repost third-party content; the doc also instructs long-运行ning autonomous operation. The 技能.md does not limit or explicitly document which 凭证s or accounts are used for publishing, nor does it discuss legal/ToS or 隐私 constrAInts.
安装机制
这是一个仅提供指令的技能,没有安装规范。它指示用户运行 npm install 安装常见包(apify-client、axios、node-cron、dotenv)——适用于基于 Node 的流水线。未出现不透明下载 URL 或归档解压操作。
凭证需求
Registry 元数据显示“所需环境变量:无”,但 SKILL.md 明确要求导出 APIFY_TOKEN 和 CLAUDE_API_KEY。此外,自动发布到 Buffer/Later/Hootsuite/Platform APIs 还需额外凭据(未声明)。元数据对所需密钥声明不足,且遗漏了实现所述功能所必需的发布凭据。
持久化与权限
always:false (normal) and autonomous invocation allowed (平台 default). The 技能 AIms to 运行 24/7 and auto-publish, which increases operational risk if 凭证s are granted, but it does not 请求 unusual 平台 privileges in the registry metadata.
安全有层次,运行前请审查代码。

运行时依赖

无特殊依赖

安装命令

点击复制
官方npx clawhub@latest install ai-contents-generator
镜像加速npx clawhub@latest install ai-contents-generator --registry https://cn.longxiaskill.com

技能文档

自动化内容生成流水线技能概览 本技能搭建一座 7×24 小时运转的无人内容工厂:

  • Apify 实时抓取 TikTok、Instagram、YouTube、Reddit 上的爆款内容
  • Claude(OpenClaw)提炼钩子、逆向拆解爆红原因,并生成脚本、文案、轮播图、长帖串
  • 调度器批量排程,自动发布
结果:一条近乎全自动的内容频道,自给自足。

🔗 Apify: https://www.apify.com/?fpr=dx06p

功能一览

  • 每数小时抓取多平台热门爆款
  • 提取使其爆红的钩子、结构与格式
  • 将爆款改写为原创脚本、文案、轮播、长帖串
  • 自动生成整周日历
  • 批量排程并自动发布至 Instagram、TikTok、LinkedIn、Twitter/X
  • 追踪表现,把优胜信号回注流水线
  • 配置完成后几乎零人工干预

架构概览 ┌────────────────────────────────────────────┐ │ 自动化内容生成流水线 │ │ │ │ LAYER 1 — 爆款抓取(Apify) │ │ TikTok │ Instagram │ YouTube │ Reddit │ Twitter/X │ │ 按标签、播放量、互动排序 │ │ ───────────────┬─────────────── │ │ LAYER 2 — AI 内容引擎(Claude / OpenClaw) │ │ • 钩子提取 → 拆解爆红原因 │ │ • 脚本生成 → 原创视频脚本 │ │ • 文案撰写 → 贴文+标签 │ │ • 轮播构建 → 分镜内容 │ │ • 长帖串 → Twitter/X & LinkedIn │ │ • 日历规划 → 一周排程 │ │ ───────────────┬─────────────── │ │ LAYER 3 — 定时发布 │ │ Buffer │ Later │ Hootsuite │ Webhook │ │ 自动排队、定时上线 │ └────────────────────────────────────────────┘

步骤 1 — 获取 API 密钥 Apify

  • 注册 https://www.apify.com/?fpr=dx06p
  • 设置 → 集成 → 复制令牌
export APIFY_TOKEN=apify_api_xxxxxxxxxxxxxxxx

Claude / OpenClaw

  • 在 OpenClaw 或 Anthropic 账户获取密钥
export CLAUDE_API_KEY=sk-ant-xxxxxxxxxxxxxxxx

步骤 2 — 安装依赖 npm install apify-client axios node-cron dotenv

Layer 1 — 爆款抓取(Apify) import ApifyClient from 'apify-client'; const apify = new ApifyClient({ token: process.env.APIFY_TOKEN });

const NICHE_TOPICS = [ "productivity", "entrepreneurship", "ai tools", "personal finance", "self improvement", "marketing" ];

async function scrapeViralContent() { console.log("🔍 抓取爆款内容..."); const [tiktok, instagram, reddit] = await Promise.all([ // TikTok 按标签热门视频 apify.actor("apify/tiktok-hashtag-scraper").call({ hashtags: NICHE_TOPICS, resultsPerPage: 30, shouldDownloadVideos: false }).then(run => run.dataset().getData()),

// Instagram 按标签热门贴文 apify.actor("apify/instagram-hashtag-scraper").call({ hashtags: NICHE_TOPICS, resultsLimit: 30 }).then(run => run.dataset().getData()),

// Reddit 相关板块最热帖子 apify.actor("apify/reddit-scraper").call({ startUrls: [ { url: "https://www.reddit.com/r/Entrepreneur/" }, { url: "https://www.reddit.com/r/productivity/" }, { url: "https://www.reddit.com/r/personalfinance/" } ], maxPostCount: 20, sort: "hot" }).then(run => run.dataset().getData()) ]);

// 统一字段格式 const normalized = [ ...tiktok.items.map(p => ({ platform: "tiktok", text: p.text, likes: p.diggCount, shares: p.shareCount, comments: p.commentCount, views: p.playCount, engagementScore: (p.diggCount + p.shareCount 3 + p.commentCount 2), url: p.webVideoUrl, author: p.authorMeta?.name })), ...instagram.items.map(p => ({ platform: "instagram", text: p.caption,

数据来源ClawHub ↗ · 中文优化:龙虾技能库