📦 Segment Anything — 一键智能抠图

v1.0.0

调用 Meta SAM 模型,自动识别前景并输出透明 PNG,无需手动选区即可精准去除背景或提取主体。

0· 196·1 当前·1 累计
scikkk 头像by @scikkk·MIT-0
下载技能包
License
MIT-0
最后更新
2026/4/14
0
安全扫描
VirusTotal
可疑
查看报告
OpenClaw
安全
high confidence
该技能的代码、依赖及说明与其声明用途一致(运行 Meta Segment Anything 去除图像背景);主要风险为预期的运行开销(大模型下载与 Python 包安装),而非恶意行为。
评估建议
该技能似乎确实如其所述。安装前请考虑:(1) 模型权重较大(vit_h 约 2.5GB)——确保带宽与磁盘空间;(2) 会安装 Python 包(torch、torchvision,并可能 pip 安装 segment_anything 仓库)并在本机运行代码——若在共享/生产环境,建议先审阅 segment_anything 仓库或在隔离环境(virtualenv/容器)中运行;(3) 下载源为 GitHub 与 dl.fbaipublicfiles.com(官方托管),需网络访问;(4) 不请求任何凭据。若以上行为不可接受,请勿安装或在隔离前不要运行。...
详细分析 ▾
用途与能力
名称/描述(基于 SAM 的背景去除)与所含脚本及请求的包(Pillow、numpy、torch、torchvision)一致。脚本下载官方 SAM 检查点并在需要时安装 segment_anything 包——所有行为均与声明功能相符。
指令范围
SKILL.md 指导运行所含脚本并说明行为(提示点、缓存路径 ~/.cache/sam、自动下载检查点)。指令未要求读取无关文件或外泄数据,但运行时会自动安装缺失的 segment_anything 包并下载大模型权重。
安装机制
安装规范列出预期 PyPI 包(pillow、numpy、torch、torchvision)。脚本在运行时会视需要执行 pip install git+https://github.com/facebookresearch/segment-anything.git。模型检查点从 dl.fbaipublicfiles.com(Facebook 公共托管)下载——无不短链或私有域名。
凭证需求
未请求任何环境变量、凭据或配置路径。脚本仅写入应用缓存目录(~/.cache/sam)与用户提供的输出位置。
持久化与权限
技能未请求 always:true,由用户调用。会在运行环境安装 Python 包并在 ~/.cache/sam 下持久化模型文件;这对 ML 模型使用属预期行为,但会修改本地环境。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/3/14

- 首次发布 segment-anything 技能 (sam-segmentation-zh)。 - 使用 Meta 的 Segment Anything Model (SAM) 提供图像背景去除功能,输出透明 PNG。 - 支持自定义模型、前景点提示及高级选项以提取多个元素。 - 包含 CLI 用法说明与详细参数解释。 - 自动处理模型下载与依赖安装。

可疑

安装命令

点击复制
官方npx clawhub@latest install segment-anything
镜像加速npx clawhub@latest install segment-anything --registry https://cn.longxiaskill.com

技能文档

使用 Meta 的 Segment Anything Model 从图像中提取前景主体,输出透明背景的 PNG 文件。

快速开始

``bash python3 scripts/segment.py <输入图像> <输出.png> ` 默认以图像中心作为前景提示点——适用于主体居中的人像和产品图。

参数说明

| 参数 | 说明 | 默认值 | |---|---|---| |
input | 输入图像路径 | 必填 | | output | 输出 PNG 路径(单目标模式)或目录(--all 模式) | 必填 | | --model | 模型大小:vit_b(快速)· vit_l(中等)· vit_h(最佳质量) | vit_h | | --checkpoint | 本地权重文件路径;省略时自动下载 | 自动 | | --points | 前景提示点,格式为 x,y,可指定多个 | 中心点 | | --all | 网格扫描模式:提取所有独立元素 | 关闭 | | --grid | --all 模式的网格密度;16 表示 16×16=256 个探测点 | 16 | | --iou-thresh | 接受掩码的最低预测 IoU(--all 模式) | 0.88 | | --min-area | 掩码最小面积占图像比例(--all 模式) | 0.001 |

使用示例

`bash # 基础背景去除(自动下载 vit_h 约 2.5GB) python3 scripts/segment.py photo.jpg output.png

# 主体偏离中心时指定提示点 python3 scripts/segment.py photo.jpg output.png --points 320,240

# 多提示点 + 轻量模型 python3 scripts/segment.py photo.jpg output.png --model vit_b --points 320,240 400,300

# 提取所有元素(每个元素输出一个 PNG) python3 scripts/segment.py photo.jpg ./elements/ --all

# 使用更密集的网格捕获小物体 python3 scripts/segment.py photo.jpg ./elements/ --all --grid 32

# 使用本地权重文件 python3 scripts/segment.py photo.jpg output.png --checkpoint /path/to/sam_vit_h_4b8939.pth `

依赖安装

segment_anything 首次运行时自动安装,也可手动安装: `bash pip install git+https://github.com/facebookresearch/segment-anything.git pip install pillow numpy torch torchvision `

工作流程

  • 用户提供图像路径
  • 询问是否需要提示点(主体偏离中心时)
  • 运行脚本;权重文件首次使用时自动下载至 ~/.cache/sam/
  • 输出透明背景的 PNG 文件

模型选择

| 模型 | 大小 | 速度 | 质量 | |---|---|---|---| | vit_b | ~375 MB | 最快 | 良好 | | vit_l | ~1.25 GB | 中等 | 较好 | | vit_h` | ~2.5 GB | 较慢 | 最佳 |

有 GPU 时自动使用 CUDA 加速。

数据来源ClawHub ↗ · 中文优化:龙虾技能库