首页龙虾技能列表 › Li Feishu Audio — 技能工具

Li Feishu Audio — 技能工具

v0.1.3

飞书语音交互技能。支持语音消息自动识别、AI 处理、语音回复全流程。需要配置 FEISHU_APP_ID 和 FEISHU_APP_SECRET 环境变量。使用 faster-whisper 进行语音识别,Edge TTS 进行语音合成,自动转换 OPUS 格式并通过飞书发送。适用于飞书平台的语音对话场景。

0· 220·0 当前·0 累计·💬 2
by @43622283 (Terry S Fisher)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/4/12
安全扫描
VirusTotal
无害
查看报告
OpenClaw
可疑
medium confidence
The skill's code and instructions generally match a Feishu voice-reply integration, but there are metadata inconsistencies and a few supply‑chain / data‑handling concerns you should review before installing.
评估建议
Before installing, do these checks: 1) Verify metadata: confirm the registry's declared required env vars match SKILL.md/_meta.json (FEISHU_APP_ID and FEISHU_APP_SECRET). Mismatched metadata is a red flag. 2) Inspect .env/.openclaw.json and ensure credentials are user's and not pre-filled by the package. Never commit .env to version control. 3) Validate external endpoints: hf-mirror.com is a third‑party HF mirror — confirm you trust it (or change HF_ENDPOINT to official HuggingFace) before all...
详细分析 ▾
用途与能力
The skill's name/description (Feishu voice recognition + TTS + send) matches the included scripts and Python handler. Requesting FEISHU_APP_ID and FEISHU_APP_SECRET is appropriate for sending messages. However, registry-level metadata (top of package data) claimed 'Required env vars: none' while _meta.json and SKILL.md declare FEISHU_APP_ID/FEISHU_APP_SECRET as required — this mismatch is incoherent and worth verifying with the publisher.
指令范围
Runtime instructions and scripts operate within the stated workflow: they read a local .env or openclaw.json, transcribe audio locally (faster-whisper), call Microsoft Edge TTS for synthesis, convert to OPUS with ffmpeg, and upload to Feishu via its API. This is in-scope. Two items to note: (1) text sent to Microsoft Edge TTS is transmitted to an external service (so user audio/text leaves the host), and (2) SECURITY.md claims 'does not collect any user data' which contradicts the obvious processing and network calls — that's an inaccurate claim and should be corrected.
安装机制
The package includes an install.sh and scripts that download or trigger model downloads and install Python packages via 'uv pip'. The SKILL registry declared 'No install spec' despite an install script and _meta.json referencing scripts/install.sh — that's an inconsistency. The scripts use a non-standard HuggingFace mirror (https://hf-mirror.com) for model downloads; using a third-party mirror is a supply-chain risk and should be validated. The install script requires the 'uv' tool (and suggests a curl-based installer URL in docs), which would pull code remotely if the user follows that suggestion — check that source before running.
凭证需求
Only Feishu app credentials (FEISHU_APP_ID, FEISHU_APP_SECRET) are required for the Feishu integration which is proportionate. Optional env vars (model dir, VENV_DIR, TEMP_DIR, OPENCLAW_CONFIG, LOG_DIR) are sensible. Again, the top-level 'Required env vars: none' is inconsistent with _meta.json and SKILL.md and should be fixed. Also, some scripts will source a local scripts/.env — ensure you control that file and it's not populated from an untrusted source.
持久化与权限
The skill is not marked always:true and is user-invocable; it does not request system-wide or cross-skill configuration writes beyond reading openclaw.json and creating files under user-controlled directories. It does create a local virtualenv and model directory under the user's home by default — typical for this kind of skill.
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv0.1.32026/3/17

修复元数据:声明必需的环境变量(FEISHU_APP_ID/FEISHU_APP_SECRET),修复test_voice.py硬编码路径问题,增强供应链透明度说明

● 无害

安装命令 点击复制

官方npx clawhub@latest install li-feishu-audio
镜像加速npx clawhub@latest install li-feishu-audio --registry https://cn.clawhub-mirror.com

技能文档

快速开始

本技能提供完整的飞书语音交互能力:

用户语音 → faster-whisper 识别 → AI 处理 → Edge TTS 合成 → OPUS 转换 → 飞书发送

核心组件

1. 语音识别 (fast-whisper)

脚本: scripts/fast-whisper-fast.sh

用法:

./scripts/fast-whisper-fast.sh <音频文件.ogg>

配置:

  • 模型:faster-whisper tiny
  • 语言:中文 (zh)
  • 模型目录:可配置(环境变量 FAST_WHISPER_MODEL_DIR
  • 虚拟环境:技能目录下的 .venv(自动创建)

2. 语音合成 (Edge TTS)

脚本: scripts/tts-voice.sh

用法:

./scripts/tts-voice.sh "文本内容" [输出文件.mp3]

配置:

  • 音色:zh-CN-XiaoxiaoNeural (中文女声)
  • 输出格式:MP3 (自动转换为 OPUS)
  • 虚拟环境:技能目录下的 .venv(自动创建)

3. 飞书语音发送

脚本: scripts/feishu-tts.sh

用法:

./scripts/feishu-tts.sh <音频文件.mp3> [用户 ID]

配置:

  • 飞书 AppID: 从环境变量或 openclaw.json 读取
  • 音频格式:OPUS (48kHz, 自动转换)
  • 消息类型:audio

4. 自动清理

脚本: scripts/cleanup-tts.sh

用法:

./scripts/cleanup-tts.sh [保留数量]

定时任务: 每天凌晨 2 点自动执行

完整工作流

接收用户语音消息

  • 飞书收到语音消息(OGG/OPUS 格式)
  • 保存到 OpenClaw 媒体目录(自动处理)
  • 调用 fast-whisper-fast.sh 识别

生成回复

  • 识别结果发送给大模型
  • 大模型生成文字回复
  • 调用 tts-voice.sh 生成语音

发送语音回复

  • TTS 生成 MP3 文件
  • sendMediaFeishu 自动转换为 OPUS
  • 通过飞书 API 发送语音消息

环境要求

系统依赖

# Python
Python 3.11+
uv 包管理器

# 音频处理 ffmpeg (支持 OPUS 编码) jq (JSON 处理)

# 飞书 API 飞书开放平台应用凭证

Python 环境

# 虚拟环境
技能目录/.venv (自动创建)

# 已安装包 faster-whisper==1.2.1 edge-tts==7.2.7

模型文件

# 语音识别模型
$FAST_WHISPER_MODEL_DIR/models--Systran--faster-whisper-tiny/

配置说明

飞书凭证

方法 1: 环境变量(推荐)

创建 .env 文件:

export FEISHU_APP_ID="cli_xxx"
export FEISHU_APP_SECRET="xxx"

方法 2: openclaw.json

{
  "channels": {
    "feishu": {
      "enabled": true,
      "appId": "cli_xxx",
      "appSecret": "xxx"
    }
  }
}

⚠️ 安全提示:不要将凭证提交到版本控制系统!

自定义目录(可选)

.env 文件中配置:

# 模型目录(默认:$HOME/.fast-whisper-models)
export FAST_WHISPER_MODEL_DIR="/opt/fast-whisper-models"

# 虚拟环境目录(默认:技能目录/.venv) export VENV_DIR="/path/to/venv"

# 临时文件目录(默认:/tmp) export TEMP_DIR="/tmp"

# 日志目录(默认:技能目录/logs) export LOG_DIR="/path/to/logs"

# OpenClaw 配置路径(默认:$HOME/.openclaw/openclaw.json) export OPENCLAW_CONFIG="$HOME/.openclaw/openclaw.json"

TTS 配置

{
  "messages": {
    "tts": {
      "auto": "always",
      "provider": "edge",
      "edge": {
        "enabled": true,
        "voice": "zh-CN-XiaoxiaoNeural",
        "lang": "zh-CN"
      }
    }
  }
}

脚本说明

fast-whisper-fast.sh

#!/bin/bash
# 语音识别脚本
export HF_ENDPOINT=https://hf-mirror.com  # 国内镜像
VENV_PYTHON="技能目录/.venv/bin/python"  # 由 install.sh 自动配置

# 用法 ./fast-whisper-fast.sh <音频文件>

输出格式:

[0.00s -> 2.32s] 识别的文本内容

tts-voice.sh

#!/bin/bash
# TTS 语音生成脚本
export HF_ENDPOINT=https://hf-mirror.com
VENV_PYTHON="技能目录/.venv/bin/python"

# 用法 ./tts-voice.sh "文本内容" [输出文件.mp3]

feishu-tts.sh

#!/bin/bash
# 飞书语音发送脚本
# 自动转换 MP3 → OPUS

# 用法 ./feishu-tts.sh <音频文件.mp3> [用户 ID]

转换参数:

ffmpeg -y -i input.mp3 -acodec libopus -ar 48000 -ac 1 output.opus

cleanup-tts.sh

#!/bin/bash
# TTS 临时文件清理脚本

# 用法 ./cleanup-tts.sh [保留数量] # 默认保留 10 个

# 定时任务(crontab) 0 2 * ./cleanup-tts.sh 10

故障排查

语音识别失败

问题: 无法识别语音内容

检查:

  • 模型是否下载:ls $FAST_WHISPER_MODEL_DIR/
  • 虚拟环境:技能目录/.venv/bin/python --version
  • 网络:export HF_ENDPOINT=https://hf-mirror.com

TTS 生成失败

问题: 无法生成语音文件

检查:

  • edge-tts 安装:uv pip list -p 技能目录/.venv | grep edge
  • 网络连接:Edge TTS 需要访问微软服务
  • 输出目录权限

飞书发送失败

问题: 语音消息发送失败

检查:

  • 凭证配置:echo $FEISHU_APP_ID
  • 音频格式:必须是 OPUS
  • 用户 ID 类型:使用 open_id

性能指标

操作耗时
语音识别 (tiny)~8-10 秒
TTS 生成~3-5 秒
OPUS 转换<1 秒
飞书上传~2-3 秒
总计~15 秒

最佳实践

语音质量

  • 录音环境: 安静环境,减少背景噪音
  • 说话速度: 正常语速,避免过快
  • 音频格式: 飞书自动发送 OPUS 格式

文件管理

  • 定期清理: 每天凌晨自动清理
  • 保留策略: 保留最近 10 个 TTS 目录
  • 空间上限: 100MB 自动清理

错误处理

  • 识别误差: 允许用户文字补充
  • 发送失败: 降级为文字回复
  • 超时处理: 设置合理超时时间

扩展功能

添加新音色

编辑 tts-voice.sh:

# 中文男声
communicate = edge_tts.Communicate(TEXT, "zh-CN-YunxiNeural")

# 英文女声 communicate = edge_tts.Communicate(TEXT, "en-US-MichelleNeural")

调整语速音调

# 在 edge_tts 中调整
communicate = edge_tts.Communicate(
    TEXT, 
    "zh-CN-XiaoxiaoNeural",
    rate="+10%",   # 语速
    pitch="-5%"    # 音调
)

支持更多语言

修改 fast-whisper-fast.sh:

# 多语言识别
model.transcribe("$AUDIO_FILE", language="auto")

相关文件

  • 配置: .env 文件或 openclaw.json
  • 脚本: 技能目录下的 scripts/
  • 模型: 可配置(FAST_WHISPER_MODEL_DIR,默认 $HOME/.fast-whisper-models
  • 临时文件: 可配置(TEMP_DIR,默认 /tmp
  • 虚拟环境: 可配置(VENV_DIR,默认 技能目录/.venv)
  • 日志: 可配置(LOG_DIR,默认 技能目录/logs)

版本信息

  • 技能版本: 0.1.3.1
  • 作者: 北京老李 (BeijingLL)
  • faster-whisper: 1.2.1
  • edge-tts: 7.2.7
  • Python: 3.11

安全与供应链

必需的凭证

变量名必需说明
FEISHU_APP_ID飞书应用 ID (cli_xxx)
FEISHU_APP_SECRET飞书应用密钥
FAST_WHISPER_MODEL_DIR模型目录,默认 ~/.fast-whisper-models
VENV_DIR虚拟环境目录,默认技能目录下 .venv
TEMP_DIR临时文件目录,默认 /tmp
OPENCLAW_CONFIGOpenClaw 配置路径
LOG_DIR日志目录,默认技能目录下 logs

外部依赖说明

HuggingFace 镜像: 默认使用 https://hf-mirror.com 加速国内下载,可通过环境变量 HF_ENDPOINT 修改。

uv 安装: install.sh 会在未安装 uv 时提示安装命令。建议从官方源验证后再执行。

Microsoft Edge TTS: TTS 服务调用微软 Azure 语音服务,需要网络访问。

安全说明

凭证管理

  • ✅ 使用环境变量存储敏感凭证
  • ✅ 不要将 .env 提交到版本控制
  • ✅ 将 .env 加入 .gitignore

路径配置

  • ✅ 使用可配置的路径(环境变量)
  • ✅ 避免硬编码个人路径
  • ✅ 使用相对路径或系统级目录

临时文件

  • ✅ 定期清理临时文件
  • ✅ 使用系统临时目录 /tmp/
  • ✅ 设置合理的保留策略
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务