首页龙虾技能列表 › Mlx Whisper — 语音转文本

🍎 Mlx Whisper — 语音转文本

v1.0.0

利用 MLX Whisper 实现本地语音转文本,专为 Apple Silicon Mac 优化,无需 API 密钥。支持转录、翻译和字幕生成,多模型选择,简单的命令行界面。

1· 3,500·18 当前·22 累计
by @kevin37li (Kevin37Li)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/2/26
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
技能的要求和运行指令与本地 Apple-Silicon 语音转文本包装器一致 — 没有任何超出此目的的请求或指令。
评估建议
该技能适用于 Apple Silicon 的本地语音转文本,但在安装前,请确认:(1) 信任 'mlx-whisper' PyPI 包及其维护者,(2) 预期大型模型下载 (~100MB–3GB) 到 ~/.cache/huggingface/ (确保磁盘空间),(3) 在虚拟环境或隔离环境中安装以限制风险。网络活动用于下载模型;如果需要离线操作,请验证模型已预下载且可信。如果需要更强的保证,请在安装/运行二进制文件前查看上游项目源(GitHub 链接)。...
详细分析 ▾
用途与能力
名称/描述指出为 Apple Silicon 的本地 MLX Whisper;SKILL.md 需要 mlx_whisper 二进制文件并记录其使用和模型。声明的安装提示(pip 包 'mlx-whisper')与声明的能力相符。没有无关的凭据、二进制文件或配置路径被请求。
指令范围
指令是简单的命令示例,调用本地 mlx_whisper 二进制文件处理音频/视频文件,并注明模型缓存位置 (~/.cache/huggingface/)。它们不指示读取无关系统文件、窃取数据或访问无关环境变量。
安装机制
SKILL.md 包含一个安装元数据条目,推荐 'pip install mlx-whisper'。这是 Python CLI 的正常分发机制,但这意味着代码将从 PyPI 安装(中等信任要求)并且二进制文件将本地运行。模型文件在首次使用时下载(网络活动) — 预期但值得注意。
凭证需求
除了文档中的模型缓存路径外,技能不需要环境变量、凭据或配置路径。这与下载公共模型的本地转录工具的比例相符。
持久化与权限
技能不总是启用且可由用户调用;它不请求持久的系统级更改或修改其他技能的配置。允许自主调用(平台默认),但没有其他权限提升请求。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/1/25

- 首次发布 mlx-whisper:使用 MLX Whisper 的本地语音转文本,针对 Apple Silicon Mac 优化。 - 无需 API 密钥;模型按需下载和缓存。 - 支持转录、翻译和字幕生成 (SRT)。 - 多个模型可用,平衡速度和质量。 - 简单的命令行界面,用于快速音频转录和字幕创建。

● 无害

安装命令 点击复制

官方npx clawhub@latest install mlx-whisper
镜像加速npx clawhub@latest install mlx-whisper --registry https://cn.clawhub-mirror.com

技能文档

MLX Whisper 本地语音转文本使用 Apple MLX,针对 Apple Silicon Mac 优化。

快速开始

mlx_whisper /path/to/audio.mp3 --model mlx-community/whisper-large-v3-turbo

常见用法

# 转录为文本文件
mlx_whisper audio.m4a -f txt -o ./output
# 带语言提示的转录
mlx_whisper audio.mp3 --language en --model mlx-community/whisper-large-v3-turbo
# 生成字幕 (SRT)
mlx_whisper video.mp4 -f srt -o ./subs
# 翻译为英文
mlx_whisper foreign.mp3 --task translate

模型(首次使用时下载)

模型大小速度质量
mlx-community/whisper-tiny~75MB最快基本
mlx-community/whisper-base~140MB良好
mlx-community/whisper-small~470MB中等较好
mlx-community/whisper-medium~1.5GB较慢极好
mlx-community/whisper-large-v3~3GB最慢最佳
mlx-community/whisper-large-v3-turbo~1.6GB优秀(推荐)
## 注意事项
  • 需要 Apple Silicon Mac (M1/M2/M3/M4)
  • 模型缓存到 ~/.cache/huggingface/
  • 默认模型为 mlx-community/whisper-tiny;使用 --model mlx-community/whisper-large-v3-turbo 获取最佳结果
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务