EdgePersona 全本地化的智能数字人项目

AI 数字人,可以通过语音对话、表情控制和肢体动作与数字人进行互动。只需一台配备NVIDIA 3060显卡的笔记本电脑即可实时运行。

🧠 项目定位

EdgePersona 是一个开源项目,其目标是打造一个完全本地运行、隐私安全的智能数字人系统。该系统拥有语音对话、多模态动作响应等能力,运行于普通笔记本即可,无需联网,保障用户数据私密性。

核心特性

  • 100% 本地化运行:所有模型推理和语音处理都在本地完成,无需连接互联网,确保隐私安全
  • 轻量高效:硬件要求低,一般带有 NVIDIA GPU(≥6 GB 显存)的笔记本即可实时代码运行
  • 多模态交互:支持语音对话、角色面部表情与肢体动作响应等交互方式。
  • 可定制角色:通过 YAML 配置文件定义角色的个性、语气和动作风格。
  • 多模型支持:兼容 Ollama、HuggingFace、GGUF 等本地模型格式

技术架构概览

EdgePersona 基于 Python 开发,核心模块包括:

  • 语音识别(ASR)语音合成模块(TTS)
  • 对话引擎 (dialogue.py)记忆模块(memory.py)
  • 动作控制器(player.py, robot.py) 等
  • 支持调用本地 LLM(如 Ollama 协议服务器)进行自然语言生成

系统集成了多个开源组件,如 Live2D、Ollama、本地 TTS(如 KokoroTTS)等

如何使用

  1. 克隆仓库并创建 Python 虚拟环境。
  2. 安装依赖:pip install -r requirements.txt
  3. 配置角色与语音参数(修改 YAML、tts.py、模型路径等)
  4. 启动程序:python main.py 即可运行数字人交互界面

使用场景举例 ✨

  • 想建立一个离线语音助理,适配个人隐私需求;
  • 想在笔记本或低配设备上运行数字人应用;
  • 需要一个可自定义角色声音、动作与对话风格的系统;
  • 追求一个无需依赖云端服务即可运行的 AI 虚拟形象。

优势与局限

优势局限 / 注意点
完全离线,无网络依赖,隐私安全对显卡显存有要求,如 NVIDIA ≥6 GB
轻量,适用于普通笔记本对话生成质量受限于你所加载的本地 LLM 模型
支持深度定制角色风格配置和模型准备需要一定技术基础
支持主流模型格式多模态动作与场景交互仍在持续开发中

总结

EdgePersona 是一个致力于推动数字人 “回归本地化” 的开源项目,它摒弃云端依赖,通过本地模型和本地推理,实现数字人与用户的私密、定制化互动体验。如果你有 NVIDIA GPU 的设备,并希望构建一个离线运行、可深度定制的虚拟角色或语音助理,EdgePersona 是一个非常有潜力的起点。

Github:https://github.com/zc-maker/EdgePersona

油管:https://youtu.be/SpM8O03xILI