🤖 AI总结
主题
关于Memories.ai公司开发AI视觉记忆技术及其应用前景。
摘要
Memories.ai专注于开发AI视觉记忆技术,通过与英伟达、高通合作构建模型和基础设施,旨在赋能可穿戴设备和机器人,实现AI在物理世界中的记忆与交互。
关键信息
- 1 Memories.ai为可穿戴设备和机器人构建视觉记忆基础设施。
- 2 公司开发了大型视觉记忆模型LVMM,并与英伟达、高通合作。
- 3 技术旨在让AI记住物理世界所见,以超越文本记忆的局限。
![]()
Shawn Shen认为,AI要在物理世界中取得成功,就需要记住它所看到的一切。Shen的公司Memories.ai正在使用英伟达AI工具,为可穿戴设备和机器人构建能够记忆和回忆视觉记忆的基础设施。
Memories.ai在周一的英伟达GTC会议上宣布与半导体巨头英伟达展开合作。通过这一合作伙伴关系,Memories.ai使用英伟达的Cosmos-Reason 2(一款推理视觉语言模型)和英伟达Metropolis(一款视频搜索和摘要应用)来继续开发其视觉记忆技术。
Shen告诉TechCrunch,他和联合创始人兼首席技术官Ben Zhou在为Meta的Ray-Ban眼镜构建AI系统时萌生了这个创业想法。开发AI眼镜让他们思考,如果用户无法回忆他们录制的视频数据,人们在现实生活中究竟如何使用这项技术。
他们四处寻找是否有人已经在为AI构建这种类型的视觉记忆解决方案。当他们发现没有时,决定从Meta独立出来,自己构建这个解决方案。
“AI在数字世界中已经表现得非常好。那么物理世界呢?”Shen说道。”AI可穿戴设备、机器人同样需要记忆。最终,你需要AI拥有视觉记忆。我们相信那个未来。”
一般来说,AI系统的记忆能力相对较新。OpenAI在2024年更新了ChatGPT,开始记忆过往对话,并在2025年优化了这一功能。马斯克的xAI和谷歌Gemini在过去两年中也推出了自己的记忆工具。
但Shen表示,这些进展主要专注于基于文本的记忆。基于文本的记忆更加结构化,更容易索引,但对于主要通过视觉与世界交互的物理AI应用来说,帮助并不大。
Memories.ai于2024年成立,迄今已筹集1600万美元,包括2025年7月的800万美元种子轮和800万美元的后续轮次。该轮由Susa Ventures领投,参投方包括Seedcamp、Fusion Fund和Crane Venture Partners等。
Shen表示,成功构建这个视觉记忆层需要两个要素:构建将视频嵌入和索引为可存储和回忆数据格式所需的基础设施,以及获取训练模型所需的数据。
公司于2025年7月推出了其大型视觉记忆模型(LVMM)。Shen表示,它可以比作本月早些时候发布的Gemini Embedding 2(一个多模态索引和检索模型)的缩小版本。
在数据收集方面,公司创建了LUCI,这是一个由公司”数据收集员”佩戴的硬件设备,用于录制训练模型所需的视频。Shen表示,他们不打算成为硬件公司,也不会销售这些设备,而是因为他们对专注于高清和耗电视频格式的现成视频录制器不满意,所以自己构建了设备。
公司发布了LVMM的第二代产品,并与高通签署合作协议,从今年晚些时候开始在高通处理器上运行。
Shen说,Memories.ai目前也在与一些大型可穿戴设备公司合作,但拒绝透露具体是哪些公司。尽管现在有一些需求,Shen认为可穿戴设备和机器人领域还有更大的机会。
“在商业化方面,我们更专注于模型和基础设施,因为我们最终认为可穿戴设备和机器人市场会到来,但可能不是现在,”Shen说道。
Q&A
Q1:Memories.ai的视觉记忆技术是什么?
A:Memories.ai开发的视觉记忆技术是为可穿戴设备和机器人构建能够记忆和回忆视觉记忆的基础设施,让AI系统能够记住它们所看到的内容,主要应用于物理世界中的AI设备。
Q2:LVMM大型视觉记忆模型有什么特点?
A:LVMM是Memories.ai在2025年7月推出的大型视觉记忆模型,可以比作谷歌Gemini Embedding 2的缩小版本,具备多模态索引和检索功能,专门处理视觉数据而非文本数据。
Q3:Memories.ai目前的商业化策略是什么?
A:公司更专注于模型和基础设施开发,已与英伟达和高通等公司建立合作伙伴关系,同时与大型可穿戴设备公司合作,但认为可穿戴设备和机器人市场的大规模商业化时机还未到来。