苹果设备本地模型的 OpenAI 兼容 API 服务器

这是一个为苹果设备上的本地模型提供 OpenAI 兼容 API 的服务器项目,方便开发者在本地运行并调用类似 OpenAI 接口的模型服务。

项目 gety‑ai/apple‑on‑device‑openai(英文名为 Apple On‑Device OpenAI API)是一个挺酷的工具,核心功能是:

📌 项目概览

  • 这是一个使用 SwiftUI 构建的 macOS 应用,它在本地启动一个兼容 OpenAI API 的服务器,后端调用的是 Apple 自己的 on‑device Foundation Models(又称 Apple Intelligence)
  • 你的应用或脚本只要原本能使用 OpenAI 的 /v1/chat/completions 接口,就可以把请求转发到这个本地服务器来实现 AI 聊天功能,数据不会离开你的设备,保证了隐私和低延迟。

为什么它有价值?

隐私保护:所有计算都在本地完成,不向外部服务器发送用户数据。

功能亮点

  • 🚀 OpenAI 移植接口:提供像 OpenAI 那样的 /v1/chat/completions(支持 streaming)等端点,还有 /v1/models 查询可用模型 。
  • 🖥️ 使用 SwiftUI 做前端:整出一个图形界面应用,配合 macOS 使用,能规避 Apple 对命令行工具调用模型的 rate limit 限制
  • 🔧 可自行编译或直接下载使用:你可以从 Releases 下载预编译 app,也可以 clone 源码用 Xcode 编译跑起来

使用流程(简单示意)

  1. 确保你的 Mac 是运行 macOS 26 beta 且开启了 Apple Intelligence 功能(需在设置里打开)

在社区的讨论

有开发者在论坛上亲身分享:

“I wrapped Apple’s new on‑device models in an OpenAI‑compatible API”
比如提到这工作是 open-source, MIT licensed 的,也强调“客户端用 OpenAI 的调用方式即可,无数据离开本地”。

总结:这个项目做了什么?

这个项目相当于在本地搭建了一个桥梁,它把 Apple 设备上的本地 AI 模型转换为标准的 OpenAI API 接口,让你不用改已有代码,就能利用 Apple 的 on‑device AI 来聊天。特别适合追求隐私、安全、低延迟,并且已经依赖 OpenAI API 的开发者和系统。

Github:https://github.com/gety-ai/apple-on-device-openai

油管:https://youtu.be/yOQYZ8TFw4Y

参考链接