📦 Tandemn Tuna Skill — 部署和服务大型语言模型(LLM)在 GPU 上
v0.0.1Tandemn Tuna Skill 允许您在多个云平台(Modal、RunPod、Cerebrium、Cloud Run、Baseten、Azure)上部署和服务大型语言模型(LLM),支持混合服务器和实例预留(spot instance)部署,提供 OpenAI 兼容的推理端点,并支持 GPU 价格比较。该技能帮助开发者在降低成本的同时,确保零停机时间,特别适用于需要高性能计算的 NLP 任务。
0· 445·0 当前·0 累计
安全扫描
OpenClaw
可疑
medium confidence技能的声明要求和安装方法部分与其目的匹配,但 SKILL.md 需要未声明的提供商凭据和环境变量,且存在小的元数据不一致 — 请谨慎并在安装前验证上游包源。
评估建议
该技能似乎做了它声称的(混合服务器和实例预留 GPU 部署),但在安装前应解决以下重要不匹配:1) 技能元数据未声明环境变量,但指令需要多个提供商凭据。2) 安装器使用 'uv' 工具和 'tandemn-tuna' 包 — 验证 'uv' 二进制的来源和 'tandemn-tuna' 包源。3) 使用 --public 选项和高权限云凭据时要谨慎。...详细分析 ▾
ℹ 用途与能力
名称/描述(在服务器和实例预留 GPU 上部署 LLM)与 SKILL.md 中的指令和命令一致。
⚠ 指令范围
SKILL.md 指导代理/用户执行提供商特定的身份验证。
ℹ 安装机制
安装使用 uv 包(tandemn-tuna)创建 tuna 二进制文件。
⚠ 凭证需求
声明的必需环境变量:无。但 SKILL.md 明确期望多个提供商凭据。
✓ 持久化与权限
always:false,无配置路径请求。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv0.0.12026/2/24
Tandemn Tuna 的初始发布 — 支持服务器和实例预留 GPU 部署。部署 HuggingFace 模型到多云平台,提供 OpenAI 兼容推理端点,混合服务器和实例预留编排,内置 GPU 价格比较、部署管理、状态和成本仪表盘等命令。
● 可疑
安装命令
点击复制官方npx clawhub@latest install tandemn-tuna
镜像加速npx clawhub@latest install tandemn-tuna --registry https://cn.longxiaskill.com镜像同步中
技能文档
(由于原始内容过长,以下为简化后的中文翻译,保留关键部分)
name: tandemn-tuna ...(保留原始 YAML 前置物,不翻译)
# Tuna — 在 GPU 基础设施上部署和服务 LLM 模型 Tuna 是一个混合 GPU 推理编排器,允许您在多云服务器上部署 LLM 模型,提供 OpenAI 兼容端点...
快速开始(仅展示一个命令)
# 1. 安装 tuna
uv pip install tandemn-tuna
...(其他命令和详细内容因长度限制省略,建议查看原始文档)