AI 数字人,可以通过语音对话、表情控制和肢体动作与数字人进行互动。只需一台配备NVIDIA 3060显卡的笔记本电脑即可实时运行。
🧠 项目定位
EdgePersona 是一个开源项目,其目标是打造一个完全本地运行、隐私安全的智能数字人系统。该系统拥有语音对话、多模态动作响应等能力,运行于普通笔记本即可,无需联网,保障用户数据私密性。
核心特性
- 100% 本地化运行:所有模型推理和语音处理都在本地完成,无需连接互联网,确保隐私安全
- 轻量高效:硬件要求低,一般带有 NVIDIA GPU(≥6 GB 显存)的笔记本即可实时代码运行
- 多模态交互:支持语音对话、角色面部表情与肢体动作响应等交互方式。
- 可定制角色:通过 YAML 配置文件定义角色的个性、语气和动作风格。
- 多模型支持:兼容 Ollama、HuggingFace、GGUF 等本地模型格式
技术架构概览
EdgePersona 基于 Python 开发,核心模块包括:
- 语音识别(ASR)、语音合成模块(TTS)
- 对话引擎 (dialogue.py)、记忆模块(memory.py)
- 动作控制器(player.py, robot.py) 等
- 支持调用本地 LLM(如 Ollama 协议服务器)进行自然语言生成
系统集成了多个开源组件,如 Live2D、Ollama、本地 TTS(如 KokoroTTS)等
如何使用
- 克隆仓库并创建 Python 虚拟环境。
- 安装依赖:
pip install -r requirements.txt
- 配置角色与语音参数(修改 YAML、tts.py、模型路径等)
- 启动程序:
python main.py
即可运行数字人交互界面
使用场景举例 ✨
- 想建立一个离线语音助理,适配个人隐私需求;
- 想在笔记本或低配设备上运行数字人应用;
- 需要一个可自定义角色声音、动作与对话风格的系统;
- 追求一个无需依赖云端服务即可运行的 AI 虚拟形象。
优势与局限
优势 | 局限 / 注意点 |
---|---|
完全离线,无网络依赖,隐私安全 | 对显卡显存有要求,如 NVIDIA ≥6 GB |
轻量,适用于普通笔记本 | 对话生成质量受限于你所加载的本地 LLM 模型 |
支持深度定制角色风格 | 配置和模型准备需要一定技术基础 |
支持主流模型格式 | 多模态动作与场景交互仍在持续开发中 |
总结
EdgePersona 是一个致力于推动数字人 “回归本地化” 的开源项目,它摒弃云端依赖,通过本地模型和本地推理,实现数字人与用户的私密、定制化互动体验。如果你有 NVIDIA GPU 的设备,并希望构建一个离线运行、可深度定制的虚拟角色或语音助理,EdgePersona 是一个非常有潜力的起点。