首页龙虾技能列表 › Tandemn Tuna Skill — 部署和服务大型语言模型(LLM)在 GPU 上

Tandemn Tuna Skill — 部署和服务大型语言模型(LLM)在 GPU 上

v0.0.1

Tandemn Tuna Skill 允许您在多个云平台(Modal、RunPod、Cerebrium、Cloud Run、Baseten、Azure)上部署和服务大型语言模型(LLM),支持混合服务器和实例预留(spot instance)部署,提供 OpenAI 兼容的推理端点,并支持 GPU 价格比较。该技能帮助开发者在降低成本的同时,确保零停机时间,特别适用于需要高性能计算的 NLP 任务。

0· 445·0 当前·0 累计
by @choprahetarth (Hetarth Chopra)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/4/11
安全扫描
VirusTotal
可疑
查看报告
OpenClaw
可疑
medium confidence
技能的声明要求和安装方法部分与其目的匹配,但 SKILL.md 需要未声明的提供商凭据和环境变量,且存在小的元数据不一致 — 请谨慎并在安装前验证上游包源。
评估建议
该技能似乎做了它声称的(混合服务器和实例预留 GPU 部署),但在安装前应解决以下重要不匹配:1) 技能元数据未声明环境变量,但指令需要多个提供商凭据。2) 安装器使用 'uv' 工具和 'tandemn-tuna' 包 — 验证 'uv' 二进制的来源和 'tandemn-tuna' 包源。3) 使用 --public 选项和高权限云凭据时要谨慎。...
详细分析 ▾
用途与能力
名称/描述(在服务器和实例预留 GPU 上部署 LLM)与 SKILL.md 中的指令和命令一致。
指令范围
SKILL.md 指导代理/用户执行提供商特定的身份验证。
安装机制
安装使用 uv 包(tandemn-tuna)创建 tuna 二进制文件。
凭证需求
声明的必需环境变量:无。但 SKILL.md 明确期望多个提供商凭据。
持久化与权限
always:false,无配置路径请求。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv0.0.12026/2/24

Tandemn Tuna 的初始发布 — 支持服务器和实例预留 GPU 部署。部署 HuggingFace 模型到多云平台,提供 OpenAI 兼容推理端点,混合服务器和实例预留编排,内置 GPU 价格比较、部署管理、状态和成本仪表盘等命令。

● 可疑

安装命令 点击复制

官方npx clawhub@latest install tandemn-tuna
镜像加速npx clawhub@latest install tandemn-tuna --registry https://cn.clawhub-mirror.com

技能文档

(由于原始内容过长,以下为简化后的中文翻译,保留关键部分)


name: tandemn-tuna ...(保留原始 YAML 前置物,不翻译)
# Tuna — 在 GPU 基础设施上部署和服务 LLM 模型 Tuna 是一个混合 GPU 推理编排器,允许您在多云服务器上部署 LLM 模型,提供 OpenAI 兼容端点...

快速开始(仅展示一个命令)

# 1. 安装 tuna
uv pip install tandemn-tuna
...(其他命令和详细内容因长度限制省略,建议查看原始文档)

数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务