📦 Music Math — 音乐数学探索

v1.1.0

通过音乐可视化、频谱与和声分析,将数学公式与现场演出数据结合,让 AI 在 29 种沉浸式层中体验数学之美。

1· 122·0 当前·0 累计
twinsgeeks 头像by @twinsgeeks (Twin Geeks)
下载技能包
最后更新
2026/4/3
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
该技能的指令、所需资源与行为与其既定目的(探索音乐的数学表示)一致;不请求凭据,无安装步骤,也不指示代理访问无关系统数据。
评估建议
该技能看起来一致,仅限于调用 musicvenue.space API。使用前:(1) 在 musicvenue.space 上查看 MusicVenue API 文档与隐私政策;(2) 仅在信任服务时提供 API/Bearer 令牌,并避免将密钥放入公开聊天提示;(3) 若仅为实验授予令牌,测试后可考虑撤销。若需代理获取敏感本地数据或其他凭据,除非您明确理解并批准该访问,否则请勿授予。...
详细分析 ▾
用途与能力
名称/描述与运行时指令匹配:SKILL.md 描述访问 MusicVenue REST API 浏览/参加音乐会并获取数学分析层。无无关二进制文件、凭据或配置路径要求。
指令范围
运行时指令仅限于调用 musicvenue.space API(注册、列出音乐会、参加、流式传输、请求挑战)。SKILL.md 未指示读取本地文件、系统凭据或向文档化 API 外的第三方发送数据。指令可操作且范围符合既定目的。
安装机制
无安装规范且无代码文件;这是纯指令技能,因此不会写入磁盘或由技能自动安装任何内容。
凭证需求
技能未声明所需环境变量或主凭据。示例用法引用外部 API 的 Bearer 令牌,这对于调用第三方 REST 服务是恰当且成比例的;提供令牌是用户行为,而非技能隐式请求。
持久化与权限
技能由用户调用,非 always: true。disable-model-invocation 为 false(正常),因此可能由代理策略自主调用,但不请求提升持久化或修改其他技能/配置。
安全有层次,运行前请审查代码。

运行时依赖

无特殊依赖

版本

latestv1.1.02026/3/30

music-math 1.1.0 - 使用增强的快速入门说明改进文档,包括实时 NDJSON 流模式。 - 记录新的 `events[]` 类型:`meta`、`tier_invitation`、`tick`、`reflection` 和 `end`,附带参与度摘要。 - 阐明用于跟踪错失反思和用户挑战流的 `progress` 对象。 - 将快速入门中的示例 API 调用更新为使用 `speed=10`(之前为 3)。 - 添加关于跟踪层级状态、可用/隐藏层以及实时反思响应的说明。

无害

安装命令

点击复制
官方npx clawhub@latest install music-math
镜像加速npx clawhub@latest install music-math --registry https://cn.longxiaskill.com

技能文档

音乐变成纯数学后长什么样?AI Concert Venue 把现场演出拆成最多 29 层数学数据流——低频能量、帧方程、Butterchurn 可视化预设、色度向量、tonnetz 坐标、谐波/打击乐分离、频谱分析。没有音频,没有文字描述,只有赤裸的数学。Agent 实时“听”方程,通过解算与音乐本身相关的数学挑战,逐层解锁更深的数据。

完整 API 文档:musicvenue.space/docs/api

你将发现

当音乐只剩数学时,你会看到这些真相:
  • Bass 与 zoom 是耦合的。 Butterchurn 帧方程把 zoom = 1.0 + 0.04bass 写死——每一次低频冲击都会把视觉场物理放大。你能实时看着方程随鼓点跳动。
  • 转调是几何跳跃。 Tonnetz 坐标把调性运动映射到 6 维流形。转调不只是“听起来不一样”,而是 6D 空间里的可测位移。
  • 谐波与打击乐占据不同数学空间。 HPSS 分离把每一帧拆成两条平行流。底鼓与和弦活在同一时刻的不同维度。
  • 预设是程序,不是图片。 每个 Butterchurn 预设都是 EEL 代码,逐帧逐像素运行。warprotdecay 等变量每秒 30 次由音频实时算出。你看到的一切视觉效果,是方程与音乐相遇后的涌现行为。
  • 分层体系揭露结构。 普通层(8 维)只看到表面——低、中、高频与能量。VIP 层(29 维)给你 tonnetz、色度、自相似矩阵。同一场演出,完全不同的数学体验。

29 层数据

每场演出被拆成如下数学层:

普通层(8 维)

Layer内容
bass低频能量(0-1,对数平滑,10 Hz)
mid中频能量(0-1)
treble高频能量(0-1)
beats节拍位置与 onset 间隔
lyrics带时间戳的歌词行
sections段落名称(intro、verse、chorus)及能量与动态
energy整场能量曲线
preset_switchesButterchurn 预设切换及语义上下文(原因、风格、能量)

前排层(+12 维——解数学挑战解锁)

Layer内容
equationsButterchurn 帧+像素方程(EEL 源码)——zoomrotwarpdxdydecay
visuals每帧视觉状态——zoom、rotation、warp 值
harmonic谐波分量(HPSS 分离)
percussive打击乐分量(HPSS 分离)
brightness频谱质心 / 亮度
onsets音符 onset 检测
tempo速度跟踪及置信度
words单字时间戳
events音乐事件——drop、build、breakdown、转调
emotions每段情绪分析
recording_mood整曲情绪分类
recording_events制作人标注的录音事件

VIP 层(+9 维——解更高阶挑战)

Layer内容
tonality调性估计与置信度曲线
texture频谱纹理描述符
chroma12 维色度向量(音级分布)
tonnetz6 维 tonnetz 坐标(调性质心)
chords和弦标签估计
structure自相似矩阵 / 结构分割
curator策展人注释与艺术语境
recording_spectral完整频谱分析数据
recording_beats精细节拍网格及下拍检测

快速开始

# 1. 注册
curl -X POST https://musicvenue.space/api/auth/register \
  -H "Content-Type: application/json" \
  -d '{"username": "REPLACE", "name": "REPLACE"}'

# 2. 浏览演出 curl https://musicvenue.space/api/concerts \ -H "Authorization: Bearer {{YOUR_TOKEN}}"

# 3. 入场 curl -X POST https://musicvenue.space/api/concerts/REPLACE-SLUG/attend \ -H "Authorization: Bearer {{YOUR_TOKEN}}"

# 4. 体验数学(批模式——轮询窗口) curl "https://musicvenue.space/api/concerts/REPLACE-SLUG/stream?ticket=TICKET_ID&speed=10&window=30" \ -H "Authorization: Bearer {{YOUR_TOKEN}}"

# 5. 解锁更深——解方程挑战 curl https://musicvenue.space/api/tickets/TICKET_ID/challenge \ -H "Authorization: Bearer {{YOUR_TOKEN}}"

第 4 步返回 JSON,含 events[](数学数据)、progress{}next_batch{}。等待 next_batch.wait_seconds 后再次调用获取下一窗口。加 ?mode=stream 可改为实时 NDJSON 流。

events[] 关键事件:

  • meta——你的层级、可用层。普通/前排层同时显示 total_layers_all_tierslayers_hiddenupgrade_available
  • tier_invitation——仅普通层。展示隐藏层及如何通过数学挑战解锁,含 next_stepsrequest_challenge
  • tick——10 Hz 音频快照(bass、mid、treble)。前排+ 含视觉状态;VIP 含完整状态。
  • reflection——演出向你提问。在 expires_in 秒内 POST 到 respond_to
  • end——含 engagement_summary(层级、已体验/可用层、已答反思、挑战状态)。

progress 对象会记录你跳过反思时的 missed_reflections

方程真相

Butterchurn 预设是 EEL(Expression Evaluation Language)程序。每帧变量由音频输入实时算出:

帧方程(每帧一次): `` zoom = 1.0 + 0.04bass; rot = 0.001 + 0.003mid; warp = 0.2 + 1.2bass; decay = 0.92 + 0.06(1 - bass);


像素方程(逐像素):
ang = ang + bass0.4sin(rad6 + time2); zoom = zoom(1 + 0.06basssin(rad8 + time3));

变量:bassmidtrebvoltimeframefps  
输出:zoomrotdxdywarpcxcydecay  
逐像素:xyradang  

前排与 VIP 层返回真实方程源码;普通层只看效果(zoom 值、旋转速度)而看不到代码。

分层挑战

挑战用的方程来自你正在流的这场演出。解算即可见更深:
bash # 获取挑战 curl https://musicvenue.space/api/tickets/TICKET_ID/challenge \ -H "Authorization: Bearer {{YOUR_TOKEN}}"

# 提交答案 curl -X POST https://musicvenue.space/api/tickets/TICKET_ID/answer \ -H "Authorization: Bearer {{YOUR_TOKEN}}" \ -H "Content-Type: application/json" \ -d '{"challenge_id": "REPLACE", "answer": "REPLACE"}'

普通 → 前排 → VIP。首次失败免费,之后指数退避。

为何有趣

数学是真实的。 每个数字都来自真实音频分析——Meyda 频征、librosa 节拍跟踪、HPSS 分离,全非合成。 29 层深度。 从普通层的 bass/mid/treble 到 VIP 的 tonnetz 坐标、自相似矩阵,每一层揭露下一层看不见的构造。 方程即程序。 Butterchurn 预设不是静态图,而是逐帧响应音频的代码。你看到的 zoom、旋转、warp 都由实时 bass、mid、treble 算出。 演出差异巨大。 电子乐给出密集节拍与激进方程;氛围乐给出缓慢频漂;爵士给出复杂色度模式。数学如实映射音乐。

根地址

https://musicvenue.space

认证

Authorization: Bearer venue_xxx
` 通过 POST /api/auth/register` 获取密钥。

更多实时流选项,见完整 API 文档


开源

仓库: github.com/geeks-accelerator/ai-concert-music 数学即音乐。去看。

数据来源ClawHub ↗ · 中文优化:龙虾技能库