首页龙虾技能列表 › Crawl From X — X/Twitter 帖子抓取工具

Crawl From X — X/Twitter 帖子抓取工具

v2.7.0

管理关注用户列表,自动抓取当天最新 X/Twitter 帖子,导出 Markdown 文件。

1· 582·1 当前·1 累计
by @flyingtimes·MIT-0
下载技能包
License
MIT-0
最后更新
2026/3/2
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
medium confidence
该技能如描述般工作(通过 OpenClaw 浏览器中继抓取 X/Twitter,并保存 Markdown 结果到本地)。无明显目的与请求权限不匹配,但应审查包含的 Python 脚本并在运行前信任浏览器中继扩展。
评估建议
该技能与其声明目的一致,但在安装或运行前:1) 检查 Python 脚本(`craw_hot.py` 和 `media_downloader.py`)以寻找意外的网络调用、硬编码的外部端点或数据泄露逻辑。2) 了解该技能使用 OpenClaw 浏览器中继和您的浏览器登录的 X 会话——浏览器中继扩展将访问浏览会话数据,因此仅在信任该扩展时才继续。3) 先在测试账号或沙盒/容器中运行以验证行为。4) 检查 `users.txt` 以确保仅跟踪所需账号。5) 在抓取时注意 X/Twitter 服务条款和速率限制,避免抓取私人账号。如果无法审查脚本,请谨慎对待该包或要求发布者进行源代码审查或提供仓库 URL 和维护者身份。...
详细分析 ▾
用途与能力
名称/描述(导出 Markdown 的 X/Twitter 爬虫)与提供的文件和说明匹配:爬取和媒体下载脚本、`users.txt` 和许多示例结果文件。该技能需要 OpenClaw 浏览器中继和登录的浏览器会话,这对于基于浏览器的爬虫来说是合理的。
指令范围
`SKILL.md` 指令专注于安装/启动 OpenClaw 浏览器中继和运行包含的 Python 脚本(添加/列出/删除/爬取)。运行时指南使用用户的登录浏览器会话并将输出定向到本地结果/图像目录。这是预期的,但运行时确实需要浏览器中继扩展和访问浏览器会话(cookie/auth)——这是一个超出技能本身的隐私/安全考虑。
安装机制
注册表中没有正式的安装规格;`README` 和 `SKILL.md` 推荐使用 `npx clawhub@latest install crawl-from-x` 安装或克隆 GitHub 仓库。清单中没有使用未知主机的外部下载 URL。但是,包中包括可执行的 Python 脚本(`craw_hot.py`、`media_downloader.py`),这些脚本在调用时将在主机上运行 — 执行前请审查这些脚本。
凭证需求
该技能声明没有必需的环境变量、凭据或配置路径。其需要登录的浏览器会话和浏览器中继扩展与其爬取目的一致。没有请求额外或无关的凭据。
持久化与权限
没有请求 `always: true` 特权。该技能没有声明修改其他技能或系统范围的配置。它将结果/媒体写入自己的 `results/` 和 `images/` 目录,这对于该功能来说是正常的。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv2.7.02026/3/1

v2.7.0 - 使用环境变量替代绝对路径,确保跨环境兼容。优化文档说明,明确安装位置和文件结构。

● 无害

安装命令 点击复制

官方npx clawhub@latest install crawl-from-x
镜像加速npx clawhub@latest install crawl-from-x --registry https://cn.clawhub-mirror.com

技能文档

X/Twitter 帖子抓取工具。 ⚠️ 前置要求:需要 OpenClaw Browser Relay 和浏览器扩展。


安装

npx clawhub@latest install crawl-from-x
安装位置:
  • $CLAWD/skills/crawl-from-x/scripts/craw_hot.py - 主脚本
  • $CLAWD/skills/crawl-from-x/users.txt - 用户列表
  • $CLAWD/skills/crawl-from-x/results/ - 抓取结果

准备

1. 安装 OpenClaw

访问 https://github.com/openclaw/openclaw 下载安装。

2. 安装浏览器扩展

在 OpenClaw 设置中进入 "Browser Relay",安装扩展。完成后扩展显示绿色图标。

3. 启动 Browser Relay

openclaw browser start
openclaw browser status # 确认显示 "browser: enabled"

4. 登录 X 账号

在安装了扩展的浏览器中登录 X (Twitter)。

快速开始

cd $CLAWD/skills/crawl-from-x/scripts
# 添加用户
python3 craw_hot.py add username
# 列出用户
python3 craw_hot.py list
# 删除用户
python3 craw_hot.py remove username
# 抓取所有用户
python3 craw_hot.py crawl
# 抓取单个用户
python3 craw_hot.py crawl username
结果文件:
  • posts_YYYYMMDD_HHMMSS.md - 完整内容(Markdown),媒体 URL 已替换为本地路径
  • posts_YYYYMMDD_HHMMSS.txt - URL 列表(仅全部用户抓取)
  • images/ - 下载的图片和视频
说明:
  • 单用户抓取和全部用户抓取使用相同的策略
  • 所有媒体文件(图片、动图、视频)都会下载到 images/ 目录
  • Markdown 文件中的媒体 URL 会自动替换为本地相对路径

注意事项

  • 浏览器要求:必须安装 OpenClaw 浏览器扩展
  • 登录状态:浏览器必须登录 X 账号
  • 速率限制:脚本已内置随机延迟
  • 私密账号:无法抓取私密账号内容
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务