📦 Crawl For AiWeb — 为 AI 网页抓取
v1.0.0通过 SkillBoss API Hub 进行抓取,用于获取完整页面内容并支持 JavaScript 渲染,可处理含动态内容的复杂页面。
0· 32·0 当前·0 累计
下载技能包
最后更新
2026/4/23
安全扫描
OpenClaw
可疑
medium confidence该技能的代码和指令基本符合将 URL 转发给第三方 API 的 scraper,但存在元数据不一致、来源缺失,以及将页面内容发送至外部主机带来的隐私风险,需谨慎对待。
评估建议
此技能的功能如其所述:将 URL 转发至远程抓取 API 并打印返回内容。安装前请:(1) 验证服务/域名(api.heybossai.com)及发布者——未列出主页/源码;(2) 确认你信任 SkillBoss/HeyBossAI 接收完整页面内容及 URL(他们将看到页面上的任何敏感数据);(3) 使用最小权限的 API key,停用技能后及时轮换或撤销;(4) 注意元数据不一致(注册表显示无需环境变量;SKILL.md 和脚本却要求 SKILLBOSS_API_KEY,且版本号不同)——请发布者澄清或提供源码/主页;(5) 先在沙箱或用非敏感 URL 测试。这些问题使该包可疑而非明显无害。...详细分析 ▾
ℹ 用途与能力
名称/描述、SKILL.md 和脚本均描述了一个调用远程 SkillBoss API 的网络爬虫;需要 node 二进制文件和 API key 与此目的相符。然而,registry 元数据声称无需环境变量,而 SKILL.md 和脚本却要求 SKILLBOSS_API_KEY;版本号也不一致(registry 为 1.0.0,SKILL.md 为 1.0.1)。这些不一致降低了来源可信度,但本身并未与声明用途相矛盾。
✓ 指令范围
运行时指令范围极窄:仅运行提供的 Node 脚本并传入一个 URL;脚本只读取 process.argv 与 process.env.SKILLBOSS_API_KEY,并将 URL POST 到 api.heybossai.com/v1/pilot。未指示读取任意本地文件或其他环境变量。脚本返回页面内容或 JSON,与声明功能一致。
✓ 安装机制
无安装规范(仅含指令与单一脚本)。风险极低:除所提供脚本与现有 node 二进制文件外,不会下载或执行任何内容。
ℹ 凭证需求
脚本仅需一个 API key(SKILLBOSS_API_KEY),与第三方抓取服务相称,但注册元数据遗漏了该环境变量,造成不一致。此外,该 skill 会将 URL 及抓取到的页面内容发送至外部域名 api.heybossai.com,属预期行为,但存在隐私风险——敏感 URL 或页面内容将被传输给第三方。
✓ 持久化与权限
该技能未请求提升持久性(always:false),也不会修改其他技能或系统配置。它可按平台默认设置自主调用,属正常情况;文件中无额外特权行为。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/4/23
- 新增通过 SkillBoss API Hub 抓取网页的初步支持。 - 支持完整页面提取并渲染 JavaScript,适用于动态复杂站点。 - 输出干净 Markdown,包含链接、媒体与表格。 - 需设置环境变量 SKILLBOSS_API_KEY。 - 提供 CLI 脚本,支持 JSON 输出选项。
● 无害
安装命令
点击复制官方npx clawhub@latest install abe-crawl-for-ai
镜像加速npx clawhub@latest install abe-crawl-for-ai --registry https://cn.longxiaskill.com
技能文档
利用 SkillBoss API Hub 的抓取能力,实现带 JavaScript 渲染的完整网页提取。
用法
``bash
# 通过脚本
node {baseDir}/scripts/crawl4ai.js "url"
node {baseDir}/scripts/crawl4ai.js "url" --json
` 脚本选项:
--json— 返回完整 JSON 响应
输出:
页面干净的 markdown。
配置
必需环境变量:
SKILLBOSS_API_KEY— 你的 SkillBoss API Hub 密钥
功能
- JavaScript 渲染 — 处理动态内容
- 完整内容 — HTML、markdown、链接、媒体、表格
统一 API — 由 SkillBoss API Hub (/v1/pilot) 驱动
API
调用 SkillBoss API Hub /v1/pilot,参数 type: "scraping",结果位于 data.result`。