由前 Meta 研究员、剑桥大学计算机科学博士创立的 AI 研究实验室 MemoriesAI 正式发布,推出了全球首个人工智能大型视觉记忆模型 (LargeVisualMemoryModel,简称 LVMM)。这一突破性技术旨在赋予 AI 类人般的视觉记忆能力,让机器能够像人类一样 「看到、理解并记住」 视觉信息。同时,MemoriesAI 宣布完成由 SusaVentures 领投的 800 万美元种子轮融资,标志着其在 AI 视觉记忆领域的雄心壮志。
全球首创: 大型视觉记忆模型 (LVMM)
MemoriesAI 的核心技术是其独创的大型视觉记忆模型 (LVMM),这是业内首个能够持续捕获、存储和回忆视觉信息的 AI 架构。与现有 AI 系统不同,传统模型通常只能处理短时视频片段 (15-60 分钟),在长时间视频分析中会丢失上下文,导致无法回答 「之前是否见过这个?」 或 「昨天发生了什么变化?」 等问题。而 LVMM 通过模拟人类记忆机制,能够处理长达数百万小时的视频数据,构建持久、可搜索的视觉记忆库。
这一技术通过三层架构实现: 首先对视频进行降噪和压缩,提取关键信息; 其次创建可搜索的索引层,支持自然语言查询; 最后通过聚合层将视觉数据结构化,使 AI 能够识别模式、保留上下文并进行跨时间比较。这使得 MemoriesAI 在处理大规模视频数据时,展现出前所未有的效率和准确性,号称比现有技术高出 100 倍的视频记忆容量。
广泛应用: 从安全到营销的跨行业革新
MemoriesAI 的 LVMM 技术已经在多个领域展现出巨大潜力,涵盖以下场景:
-物理安全: 为安防公司提供异常检测功能,通过分析长时间监控视频,快速发现潜在威胁。
-媒体与营销: 帮助营销团队分析社交媒体上的海量视频内容,识别品牌提及、消费者趋势和情感倾向。例如,某社交媒体平台已利用 MemoriesAI 技术洞察 TikTok 等平台的长期趋势,保持竞争优势。
-机器人与自动驾驶: 通过赋予 AI 长期视觉记忆,支持机器人执行复杂任务,或帮助自动驾驶汽车记住不同路线的视觉信息。
MemoriesAI 的平台支持通过 API 或聊天机器人网页应用访问,用户可以上传视频或连接自己的视频库,通过自然语言查询视频内容。这种灵活的交互方式使其适用于从企业级解决方案到个人化应用的广泛场景。
800 万美元种子轮融资,加速技术落地
MemoriesAI 的种子轮融资由 SusaVentures 领投,SamsungNext、CraneVenturePartners、FusionFund、Seedcamp 和 CreatorVentures 等知名投资机构参与。融资额从最初目标的 400 万美元增至 800 万美元,显示出投资者对 MemoriesAI 市场潜力的强烈信心。资金将用于扩大工程团队、深化隐私与合规框架的研发,以及加速企业客户的引入。
有投资者表示,MemoriesAI 的长期视频智能技术将为机器人、企业软件、消费电子乃至通用人工智能 (AGI) 提供关键基础设施,市场潜力覆盖多个万亿美元级行业。
团队背景:MetaRealityLabs 的
MemoriesAI 由两位前 MetaRealityLabs 研究员共同创立,他们在视觉 AI 和设备端学习领域拥有深厚积累。首席执行官曾深入研究多模态 AI,探索人类视觉记忆机制,而首席技术官则在 Meta 开发了多项生产级 AI 系统。他们的技术洞见和对 AI 记忆瓶颈的深刻理解,为 MemoriesAI 的创新奠定了基础。
视觉记忆开启 AI 新篇章
作为 AIbase 编辑部,我们认为 MemoriesAI 的 LVMM 技术不仅填补了 AI 在长期视频理解上的空白,更为 AI 从 「即时反应」 向 「动态学习」 的转变铺平了道路。通过赋予 AI 类人般的视觉记忆能力,MemoriesAI 有望在安防、营销、消费电子和机器人等领域掀起一场技术革命。尽管面临来自 Google、TwelveLabs 等竞争对手的挑战,但其 「横向」 技术架构使其能够兼容多种视频模型,展现出强大的灵活性。
结语
MemoriesAI 的诞生标志着 AI 视觉记忆领域的重大突破。从处理千万小时的视频到赋能下一代智能设备,其大型视觉记忆模型正在重新定义 AI 的可能性。AIbase 将持续跟踪 MemoriesAI 的









