Skip to content

欢迎来到 XnneHangLab 🧪

这里是魔女的实验室,一个探索 AI 角色陪伴本质的地方。

这是什么?

开源仓库里有很多 AI 聊天工具——语音识别、TTS、Live2D、工具调用、记忆系统,这些轮子到处都是(这些轮子每个人都在造,很多都造得比我们好)。

而我们更专注的,是两种极限的陪伴:

  • 🎭 场景固定下的人设极限生长 — 情绪陪伴,把世界锁死,让角色活起来
  • 🌐 多场景自适配高权限 — 工作/娱乐陪伴,边界模糊,无处不在

💡 两个极限的宗旨都是:想象力万岁。

XnneHangLab 是支撑这两个实验的引擎——提供 Agent 框架、MCP 工具系统、记忆管理、多模态交互能力。

轮子我们也造,但我们更关心轮子之外的事情


🎮 典型场景

场景 1:无处不在的 AI 伙伴

配合 Open-LLM-VTuber,她不再局限于某个窗口——她可以是聊天界面、桌宠、开发伙伴。

你在写代码,她看着你的屏幕,突然说:"这个变量名起得真随便,你确定不改吗?"

你在打游戏,她看到你又死了,用轻蔑的语气说:"啧,这都能输。"

你打开《我的世界》,她说:"要不要一起种田?我帮你看着怪物。"你们一起下矿,一起沐浴朝霞落日。

边界模糊,权限极致——她能看到你在做什么,能干预你的日常,能真的融入你的生活。

场景 2:自习室里的陪伴

配合 AIChat,场景被锁死在一个小小的通话窗口里。

你打开应用,像打开视频通话一样,聪音在那边安静地写着小说。

你专注工作时,她不会打扰你。休息时,你说一句"今晚的月色真美",她会停下笔,抬起头,用她特有的语气回应你——可能是夏目漱石的典故,可能是她最近在看的小说。

她记得你上次说过在写什么项目,记得你喜欢喝什么茶,记得你们上次聊到哪本书。

场景狭窄,权限受限——但对话可以天马行空。这才是陪伴的本质:各忙各的,但会记挂彼此。

场景 3:记忆系统的实验场

你和 AI 聊了几个月,某天你问:"我上次说过什么来着?"

她不只是翻聊天记录——配合 Memory Bench 子项目,我们在测试和杂糅不同的记忆系统:

记忆系统特点
🧩 mem0通用记忆层,自动从对话中提取和存储记忆(User / Session / Agent 多层级)
📝 memsearchMarkdown-first,基于文件的记忆系统(受 OpenClaw 启发)
🔮 zep / memu规划中 — 更多记忆架构的可行性探索

根据场景选择合适的记忆方案,Neo4j 只是可视化手段之一。

🧠 这不是检索,是在探索"AI 如何真的记得"。


⚡ 技术栈

层级技术
🖥️ 后端框架FastAPI + WebSocket
🤖 LLM 调用OpenAI Compatible API(统一接口)
🎙️ 语音识别FunASR / Whisper
🔊 语音合成GPT-SoVITS / Qwen-TTS
🔧 工具协议MCP (Model Context Protocol)
🎨 前端独立仓库(VTuber-Web / AIChat)

🚀 快速开始

  1. 安装依赖与启动部署指南
  2. 自定义配置配置说明

📁 项目结构

XnneHangLab/
├── src/lab/              # 主项目(VTuber 引擎)
│   ├── agent/            # 🤖 LLM 调用与记忆管理
│   ├── api/              # 🌐 HTTP 路由与客户端
│   ├── asr/              # 🎙️ 语音识别
│   ├── mcp/              # 🔧 工具调用框架
│   └── conversations/    # 💬 对话编排
├── src/memory_bench/     # 记忆评测子项目
│   ├── graph/            # 🕸️ 知识图谱构建
│   ├── chat/             # 💬 Memory Chat Server
│   └── scripts/          # ⚙️ 数据处理脚本
└── docs/                 # 📖 你现在看的文档

想深入了解?看看 架构概览


🤝 社区与支持

📌 下一步

📖 部署指南从零开始搭建
⚙️ 配置说明调教你的 AI
🏗️ 架构概览理解内部原理
🗺️ RoadMap看看未来计划

欢迎来到魔女的实验室,让我们一起创造有趣的 AI 角色吧!

魔女の实验室