Osaurus:原生 Apple Silicon 本地 LLM 服务器,配 SwiftUI 与 MLX
原生、仅支持 Apple Silicon 的本地 LLM 服务器,基于 Apple 的 MLX 构建,充分发挥 M 系列芯片性能。支持 Apple Foundation 模型,提供 SwiftUI 应用和 SwiftNIO 服务器,兼容 OpenAI 和 Ollama 的接口。
https://github.com/user-attachments/assets/050fe99e-757a-454c-9f81-658b6bda6ec7
亮点:
- 原生 MLX 运行时: 为 Apple Silicon 优化,使用 MLX/MLXLLM
- Apple Foundation 模型: 在支持的 macOS 版本上使用系统默认模型(foundation 或 default);在可用时由 Apple Neural Engine(ANE)加速
- 仅支持 Apple Silicon: 专为 M 系列 Mac 设计和测试
- 兼容 OpenAI API: /v1/models 和 /v1/chat/completions(支持流式和非流式)
- 兼容 Ollama: /chat 接口,支持 NDJSON 流式输出,适配 OllamaKit 和其他 Ollama 客户端
- 函数/工具调用: 类 OpenAI 工具 + tool_choice,支持 tool_calls 解析和增量流输出
- 快速令牌流: 使用 Server-Sent Events 提供低延迟输出
- 应用内聊天覆盖层: 可在可调整大小的玻璃窗口中直接与模型聊天 — 支持流式输出、Markdown、模型选择器和全局快捷键(默认 ⌘;)
- 模型管理界面: 浏览、下载和管理来自 mlx-community 的 MLX 模型
- 系统资源监控: 实时显示 CPU 和内存使用情况
- 自包含: SwiftUI 应用内嵌 SwiftNIO HTTP 服务器
由 Dinoki Labs (dinoki.ai) 创建 — 完全原生的桌面 AI 助手与伴侣。
👉 https://github.com/dinoki-ai/osaurus
🔗 查看链接 •
投稿/推荐/自荐 •
Quick RSS •
#214 •
@jaywcjlove