🍎 Mlx Whisper — 语音转文本
v1.0.0利用 MLX Whisper 实现本地语音转文本,专为 Apple Silicon Mac 优化,无需 API 密钥。支持转录、翻译和字幕生成,多模型选择,简单的命令行界面。
1· 3,500·18 当前·22 累计
安全扫描
OpenClaw
安全
high confidence技能的要求和运行指令与本地 Apple-Silicon 语音转文本包装器一致 — 没有任何超出此目的的请求或指令。
评估建议
该技能适用于 Apple Silicon 的本地语音转文本,但在安装前,请确认:(1) 信任 'mlx-whisper' PyPI 包及其维护者,(2) 预期大型模型下载 (~100MB–3GB) 到 ~/.cache/huggingface/ (确保磁盘空间),(3) 在虚拟环境或隔离环境中安装以限制风险。网络活动用于下载模型;如果需要离线操作,请验证模型已预下载且可信。如果需要更强的保证,请在安装/运行二进制文件前查看上游项目源(GitHub 链接)。...详细分析 ▾
✓ 用途与能力
名称/描述指出为 Apple Silicon 的本地 MLX Whisper;SKILL.md 需要 mlx_whisper 二进制文件并记录其使用和模型。声明的安装提示(pip 包 'mlx-whisper')与声明的能力相符。没有无关的凭据、二进制文件或配置路径被请求。
✓ 指令范围
指令是简单的命令示例,调用本地 mlx_whisper 二进制文件处理音频/视频文件,并注明模型缓存位置 (~/.cache/huggingface/)。它们不指示读取无关系统文件、窃取数据或访问无关环境变量。
ℹ 安装机制
SKILL.md 包含一个安装元数据条目,推荐 'pip install mlx-whisper'。这是 Python CLI 的正常分发机制,但这意味着代码将从 PyPI 安装(中等信任要求)并且二进制文件将本地运行。模型文件在首次使用时下载(网络活动) — 预期但值得注意。
✓ 凭证需求
除了文档中的模型缓存路径外,技能不需要环境变量、凭据或配置路径。这与下载公共模型的本地转录工具的比例相符。
✓ 持久化与权限
技能不总是启用且可由用户调用;它不请求持久的系统级更改或修改其他技能的配置。允许自主调用(平台默认),但没有其他权限提升请求。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/1/25
- 首次发布 mlx-whisper:使用 MLX Whisper 的本地语音转文本,针对 Apple Silicon Mac 优化。 - 无需 API 密钥;模型按需下载和缓存。 - 支持转录、翻译和字幕生成 (SRT)。 - 多个模型可用,平衡速度和质量。 - 简单的命令行界面,用于快速音频转录和字幕创建。
● 无害
安装命令 点击复制
官方npx clawhub@latest install mlx-whisper
镜像加速npx clawhub@latest install mlx-whisper --registry https://cn.clawhub-mirror.com
技能文档
MLX Whisper 本地语音转文本使用 Apple MLX,针对 Apple Silicon Mac 优化。
快速开始
mlx_whisper /path/to/audio.mp3 --model mlx-community/whisper-large-v3-turbo
常见用法
# 转录为文本文件
mlx_whisper audio.m4a -f txt -o ./output
# 带语言提示的转录
mlx_whisper audio.mp3 --language en --model mlx-community/whisper-large-v3-turbo
# 生成字幕 (SRT)
mlx_whisper video.mp4 -f srt -o ./subs
# 翻译为英文
mlx_whisper foreign.mp3 --task translate
模型(首次使用时下载)
| 模型 | 大小 | 速度 | 质量 |
|---|---|---|---|
| mlx-community/whisper-tiny | ~75MB | 最快 | 基本 |
| mlx-community/whisper-base | ~140MB | 快 | 良好 |
| mlx-community/whisper-small | ~470MB | 中等 | 较好 |
| mlx-community/whisper-medium | ~1.5GB | 较慢 | 极好 |
| mlx-community/whisper-large-v3 | ~3GB | 最慢 | 最佳 |
| mlx-community/whisper-large-v3-turbo | ~1.6GB | 快 | 优秀(推荐) |
- 需要 Apple Silicon Mac (M1/M2/M3/M4)
- 模型缓存到
~/.cache/huggingface/ - 默认模型为
mlx-community/whisper-tiny;使用--model mlx-community/whisper-large-v3-turbo获取最佳结果
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制