📦 技能微软官方
v?1-bit LLM 推理框架,在 CPU 上运行 1.58-bit 量化大语言模型,速度提升 1.4–6 倍、能耗降低 55–82%,单 CPU 可运行 100B 参数模型,达到人类阅读速度
6· 0·0 当前·0 累计
运行时依赖
无特殊依赖
安装命令
点击复制官方npx clawhub@latest install bitnet
镜像加速npx clawhub@latest install bitnet --registry https://cn.longxiaskill.com