华为大牛深圳创业,MemoraX AI完成千万美元融资,专治大模型“健忘症”

华为大牛深圳创业,MemoraX AI完成千万美元融资,专治大模型“健忘症”

融资概况与团队背景

近日,由前华为核心算法专家领衔创立的**MemoraX AI**宣布完成数千万元人民币天使轮融资,投资方为多家头部科技风投机构。公司总部位于深圳,核心团队来自华为2012实验室及海思半导体,在分布式系统、存储架构与深度学习领域拥有十余年积累。本轮资金将主要用于“长时记忆引擎”的研发迭代及商业化落地。

技术痛点:大模型的“健忘症”为何成为瓶颈?

当前大模型在处理超长上下文(如百万token级对话、全量代码库或历史文档)时,普遍面临**注意力坍塌**与**信息遗忘**问题。Transformer架构的二次复杂度导致模型在长序列中难以精准回溯早期关键信息,即使采用RoPE、ALiBi等位置编码优化,仍无法从根本上解决“记忆漂移”。这直接限制了AI在金融风控、医疗诊断、智能客服等需要持续上下文关联的场景中的实用性。

MemoraX的技术破局:分层记忆架构

MemoraX提出**“神经-符号混合记忆系统”**,将大模型推理过程与外部持久化记忆库解耦。其核心创新包括:

– **多级记忆池**:仿照人类记忆机制,将短期工作记忆、中期情景记忆与长期语义记忆分层管理,并通过注意力门控动态调度。
– **记忆压缩与检索**:利用向量量化与哈希索引,将历史交互压缩为可检索的“记忆片段”,推理时仅需加载相关子集,显著降低计算开销。
– **因果一致性维护**:通过时序图结构确保记忆回放不破坏逻辑链条,避免幻觉与矛盾。

据公司技术白皮书披露,该方案在128K token长度的问答任务中,记忆召回准确率提升37%,推理延迟降低至传统全量注意力机制的1/5。

行业前景与挑战

MemoraX瞄准的“长记忆”赛道正成为大模型基础设施的关键拼图。随着Agent、RAG(检索增强生成)等范式的普及,企业级应用对**持久化、可解释、低成本**的记忆能力需求激增。但需注意,记忆系统与基座模型的协同优化仍面临工程复杂性挑战,如何平衡记忆容量与实时性将是产品落地的试金石。本轮融资后,MemoraX计划与多家云厂商合作,推出“记忆即服务”API,有望重塑AI应用的长上下文处理范式。

相关文章