📦 Offline Llama — 自主本地大语言模型管理
v?Offline Llama 能够自主管理本地 Ollama 模型,提供健康监控、自动故障转移、自我修复以及无需互联网的离线操作功能,确保模型的高可用性和稳定性。
0· 668·0 当前·0 累计
by @and-ray-m
运行时依赖
无特殊依赖
安装命令
点击复制官方npx clawhub@latest install offline-llama
镜像加速npx clawhub@latest install offline-llama --registry https://cn.longxiaskill.com
技能文档
简介
Offline Llama 能够自主管理本地 Ollama 模型,提供健康监控、自动故障转移、自我修复以及无需互联网的离线操作功能。功能特点
- 自主管理: 自动管理本地 Ollama 模型。
- 健康监控: 实时监控模型健康状态。
- 自动故障转移: 检测异常自动切换。
- 自我修复: 自动修复模型运行问题。
- 离线操作: 无需互联网即可运行模型。
使用指南
- 环境准备: 确保满足 Ollama 运行要求。
- 部署模型: 将 Ollama 模型部署到本地环境。
- 启动 Offline Llama: 启动管理服务,开始自动管理。
故障排除
- 检查日志:查看健康监控和故障转移日志。
- 手动干预:必要时手动介入模型运行。