🤖 AI总结
主题
芬兰AI基础设施提供商Verda完成1.17亿美元融资,瞄准AI工作负载碎片化市场。
摘要
芬兰AI基础设施公司Verda完成1.17亿美元融资,瞄准AI工作负载碎片化趋势,专注于为训练和推理场景提供高度优化的云服务,不与超大规模云厂商正面竞争。
关键信息
- 1 Verda完成1.17亿美元股权与债务混合融资
- 2 公司瞄准高度优化基础设施和直接GPU算力支持的AI工作负载
- 3 AI工作负载碎片化趋势为中小型云服务商创造机会
![]()
总部位于芬兰的AI基础设施提供商Verda完成了一轮总额1.17亿美元的股权与债务混合融资,正积极向美国及其他市场扩张,以应对AI需求在不同工作负载类型间日益碎片化的趋势。
本轮融资的股权部分由Lifeline Ventures领投,byFounders、Tesi和Varma跟投,债务融资则来自多家北欧金融机构。Verda表示,此次融资将用于加速平台研发,并推动公司在欧洲、美国和亚洲的业务扩张。
Verda并不打算在通用云领域与AWS、微软Azure、谷歌云等超大规模云服务商正面竞争,而是瞄准一个更为细分的市场机会:适合高度优化基础设施、能够更直接获取GPU算力支持的AI工作负载。
AI工作负载走向碎片化
“讨论的焦点正在从’云与云之间的竞争’转向’AI工作负载如何开始走向碎片化’。”Moor Insights & Strategy副总裁兼首席分析师马特·金博尔(Matt Kimball)表示。
他指出,这种碎片化趋势正在为中小型云服务提供商创造发展空间,尤其是在模型训练和新兴推理工作负载领域。
“对性能高度敏感的计算密集型任务——如大规模训练和规模化推理——更适合垂直整合的系统架构。”金博尔说,”中小型服务商能够更灵活地优化这些技术栈,因为它们不必承担超大规模云服务商那样复杂的多租户架构压力。”
“智能体工作负载正在打破超大规模云服务商的传统模式,”他补充道,”这类任务运行时间长、执行路径非线性,这意味着GPU并非每时每刻都处于满负荷运转状态。那些能够将预填充与解码阶段分离,或专门针对持续性使用场景进行优化的服务商,将具备切实的竞争优势。”
这一转变已经在工作负载的分配方式上有所体现,尤其是在算力资源仍然相对紧张的训练场景中尤为明显。
“这些服务商正在抢占真实的市场份额,尤其是在训练工作负载领域。”Constellation Research副总裁兼首席分析师霍尔格·穆勒(Holger Mueller)表示,”对风险的警觉意识正在推动这一转变——越来越多的企业倾向于将AI工作负载分散部署在多个云平台上,而非依赖单一服务商。”
超大规模云服务商仍牢牢掌控主导权
尽管中小型服务商获得了一定的市场机会,但超大规模云服务商在AI工作负载与企业数据及现有系统高度绑定的场景中,依然具备结构性优势。
“凡是与企业数据紧密耦合的场景——RAG管道、受管控的数据访问、嵌入业务流程的应用——很可能仍将留在超大规模云服务商的平台上。”金博尔说,”它们已经掌控了控制平面,包括身份认证、安全机制和数据服务。”
这一态势正在强化AI工作负载的起点与最终运行位置之间的分化格局。
“训练是最初的立足点,但随着推理规模不断扩大,真正的竞争也将随之蔓延。”穆勒表示,”各家服务商都在竞相构建完整的技术栈,这势必使它们与传统云平台之间的竞争全面升级。”
这也意味着,中小型AI云服务商的竞争焦点在于特定类型的工作负载,而非面向整个企业的全平台能力。
供给约束驱动增长——但这种窗口期并不长久
Verda表示,公司目前已实现正向现金流,2026年第一季度的年化营收突破6000万美元,较此前翻倍。公司未就利润率或资本密集度提供进一步详情。
Verda还参与了英伟达优选合作伙伴计划,这也体现出公司业务对英伟达GPU的高度依赖。
GPU资源的获取仍是整个行业面临的关键制约因素,也是影响工作负载部署决策的核心变量。
“目前,很多决策仍然受限于GPU的供应情况,”金博尔表示,”一旦算力供应放开,工作负载自然会随之迁移。这不是战略选择,而是供应链行为。”
穆勒也补充道:”在短期内,可用的GPU算力仍是首要的差异化竞争要素。”
差异化竞争的窗口期有限
Verda的战略核心在于对基础设施、数据中心和软件的垂直整合,并依托芬兰的运营优势,充分利用当地丰富的可再生能源和自然冷却条件。公司客户涵盖诺基亚和ExpressVPN等知名企业。
首席执行官鲁本·布莱恩(Ruben Bryon)表示,公司专注于为AI工作负载打造量身定制的基础设施,并将持续拓展全球业务版图。
“我们正在为全球各地的先锋团队构建下一代AI云基础设施。”布莱恩在声明中表示。
目前仍不明朗的是,Verda当前的需求有多少来自长期稳定的工作负载部署,有多少仅仅源于短期的GPU供应约束,以及公司在训练、推理和新兴智能体应用场景之间的工作负载结构究竟如何分布。
“这些中小型AI云服务商确实存在一个机会窗口,但这个窗口并非对所有人同等开放。”金博尔表示,”最终能够存活下来的,将是那些真正具备架构差异化能力的企业——而不仅仅是获得了GPU访问权限的公司。”
Q&A
Q1:Verda是一家什么样的公司?它在AI云市场中的定位是什么?
A:Verda是一家总部位于芬兰的AI基础设施提供商,专注于为AI工作负载提供高度优化的云基础设施服务。与AWS、微软Azure、谷歌云等超大规模云服务商不同,Verda并不在通用云领域正面竞争,而是瞄准需要紧密优化基础设施和直接GPU算力支持的AI训练、推理等细分工作负载场景。公司依托芬兰的可再生能源和自然冷却优势,实现基础设施、数据中心与软件的垂直整合,客户包括诺基亚和ExpressVPN等知名企业。
Q2:AI工作负载碎片化是什么意思?对云市场有什么影响?
A:AI工作负载碎片化是指不同类型的AI任务(如大规模训练、推理、智能体任务)对基础设施的需求差异越来越大,企业不再将所有工作负载集中在单一云平台上,而是根据性能需求、算力可用性和风险控制等因素分散部署。这一趋势为中小型AI云服务商打开了市场空间,尤其是在训练和新兴推理场景中,但超大规模云服务商在与企业数据强绑定的场景(如RAG管道、受管控数据访问等)中仍占据主导地位。
Q3:Verda对英伟达GPU的依赖会带来哪些风险?
A:Verda参与了英伟达优选合作伙伴计划,其业务高度依赖英伟达GPU资源的获取。分析师指出,目前整个AI云行业的许多决策都受限于GPU供应情况,而非纯粹的战略选择。一旦GPU供应约束得到缓解,工作负载可能随之迁移,对Verda现有的竞争优势造成冲击。因此,分析师认为,能够长期立足的中小型AI云服务商,必须具备真正的架构差异化能力,而不仅仅依赖GPU资源的获取权限。