期望最大化(洪亮劼的专栏) 分享技术、管理、团队和业界的思考

AI as a Service:一门注定被侵蚀的生意

2023年,一场久违的融资热潮席卷了整个科技行业。这一次的主角不是社交媒体,不是共享经济,而是一个听起来几乎万能的词:AI。那一年,全球有超过两千家以”AI平台”“AI中间件”“AI即服务”为核心标签的公司完成了融资,其中不乏估值过亿美元的独角兽。投资人的逻辑清晰而自洽:AI能力高度稀缺、企业数字化需求爆炸、规模化交付天然可行,这不正是SaaS黄金时代的翻版吗?当年的Salesforce、ServiceNow,不也是靠着把软件从”产品”变成”服务”而崛起的吗?一切看起来都指向同一个方向:”AI as a Service”是一门好生意,早入场的人会赢。

引言:一个看起来很合理的生意


然后,2024年年中,瑞典支付公司Klarna做了一件震惊业界的事。CEO Sebastian Siemiatkowski在一次投资人电话会上宣布,公司正在全面替换Salesforce和Workday,改用AI自研方案。他说,一个基于OpenAI的客服Bot已经承担了原本需要700名人工客服才能完成的工作量,每年为公司节省大约四千万美元。这个消息像一颗石子投进了平静的水面,涟漪迅速扩散,AI正在颠覆SaaS,就连独立软件服务商都要被AI取代了?那些押注”AI as a Service”的公司,是在建一个新帝国,还是在替代一个旧帝国?但故事还没讲完。

本文的核心论点不是AI不好,也不是说企业不需要AI,恰恰相反。这篇文章想讨论的是:把AI能力当服务卖,正在成为一个在结构上越来越难以独立成立的商业逻辑。2023年以来的这轮AI浪潮,非但没有让”AI as a Service”这门生意更容易做,反而从芯片、平台、数据、云生态、以及自建能力五个维度,系统性地压缩了中间层独立AI服务商的生存空间。能活下来的,都已经不再是纯粹意义上的”AI服务”了。


全栈化时代,中间层是最危险的位置


要理解独立AI服务商的处境,需要先理解AI产业的竞争结构已经发生了什么本质性的变化。

三年前,AI行业的分工还相对清晰:有人做芯片,有人做基础模型,有人做应用层的具体场景,中间有大量的机会留给那些做”能力封装”和”场景交付”的中间层公司。但今天,这个分工正在被垂直整合彻底重塑。整个AI产业链,已经形成了三层叠加的竞争结构:最底层是芯片和算力(NVIDIA的GPU生态、Google的TPU、Amazon的Trainium);中间层是AI平台(AWS Bedrock、Google Vertex AI、Azure AI Foundry);最上层是面向终端用户的应用(搜索、广告、Copilot、代码助手)。这三层之间的关键词是:垂直整合、全链路、端到端优化。当一个企业客户在考虑AI选型时,面对的本质上是两条路:要么接受某个全栈方案,要么在多个独立服务商之间拼凑一个方案。这两条路的摩擦成本差距,正在以肉眼可见的速度扩大。

平台层的格局变化是最直接的冲击。AWS Bedrock、Google Vertex AI、Azure AI Foundry三强格局已经基本确立。这些平台提供的远不只是模型调用接口:从数据准备、模型微调、推理部署、性能监控,到安全合规,整套工具链一应俱全。更重要的是,这场竞争的核心已经不再是”谁拥有最好的单个模型”,而是”谁能最深度地嵌入企业的AI采购、构建和部署流程”。当一家企业的工程团队已经在Bedrock上跑通了第一个AI项目,当他们的IAM权限、日志审计、成本报表都已经集成进AWS的管理控制台,这时候引入一个独立的AI服务商,意味着要在已有体系之外新建一套平行的安全边界、新申请一套合规资质、新接受一套账期和合同逻辑。这不是功能比较,这是系统复杂度的比较。对于一个独立AI服务商而言,真正的竞争对手不是另一家同类公司,而是客户已经在用的云平台上内置的那些”自带选项”。

芯片层的制约则更为根本,却往往被低估。独立AI服务商在算力这件事上,永远处于被动位置,没有自研芯片的话语权,就意味着无法主动控制模型训练和推理的成本曲线。当AWS可以用Trainium把推理成本压到极低、当Google可以用TPU给Vertex AI上的客户提供有竞争力的定价,独立服务商的可用定价空间就会相应收窄。这不是运营效率问题,不是工程水平问题,而是一个结构性的成本劣势,它由产业链的位置决定,而不是由努力程度决定。

回到我们的虚构主线:那家年GMV约五十亿的中型电商,2023年接入了第一家独立AI服务商,做的是智能客服。这家服务商的方案是调用第三方大模型API,跑在自己托管的服务器上,向电商收取按月结算的服务费。每一次续约谈判,对方的技术团队都会提出同一个问题:为什么不直接用AWS Bedrock?这家电商的全套基础设施已经在AWS上,IAM权限体系、VPC网络配置、合规审计日志,全部打通。引入这个独立客服AI,意味着要在这套体系之外新开一个安全边界,要让IT部门额外维护一套访问控制策略,要在合规审计中新增一个数据流出口。服务商的回答永远是”我们的效果更好”,但随着AWS Bedrock上可调用的模型种类越来越多、质量越来越高,”效果更好”这个论据在客户的IT和安全团队面前,分量一次比一次轻。

全栈化不是一个正在发生的趋势,而是一个已经完成的现实。在这个竞争结构里,独立AI服务商的位置越来越像一个夹层,上方是有芯片和平台的大厂,下方是有数据和场景的客户。夹层的生存空间,正在被系统性地压缩。


数据和AI必须一体化,但大多数AI服务商两手都不硬


如果说全栈化是从上方压下来的力量,那么数据一体化就是从下方撑不起来的致命伤。

大模型的基础能力,正在以惊人的速度趋于同质化。斯坦福大学AI指数2025年的数据显示,在主要的行业基准测试上,最好的开源模型与最好的闭源商业模型之间的性能差距,在一年之内从8%收窄到了1.7%。这意味着什么?意味着”我们有更好的AI模型”,正在成为一个越来越难以维持的差异化主张。当开源模型的能力已经接近顶级商业模型,当推理成本持续下降让更多玩家能够平等地接入高质量的AI能力,企业客户在选型时的问题,已经从”哪家的模型更好”变成了”谁能把AI和我自己的数据结合得更紧密”。而这,对独立AI服务商来说,是一个结构性的坏消息,因为客户最有价值的数据,从来不在服务商手里。

Databricks和Snowflake的战略演进,揭示了这场竞争的真实逻辑。Databricks以十三亿美元收购了MosaicML,并将其整合演变为完整的Mosaic AI套件;随后又以约十亿美元收购了数据库创业公司Neon,着手建设其称之为Lakebase的新一代数据基础设施。Databricks的目标不是”做一个更好的AI服务”,而是让企业能够在同一个平台上管理数据、构建模型、部署AI Agent,数据和AI在同一个屋檐下运转,不需要任何数据搬运,不需要任何中间层。Snowflake的路径与此异曲同工:他们把AI能力直接内嵌进数据仓库,推出了Cortex AI,用户不需要把数据搬出数仓就能直接跑模型推理、构建RAG应用、生成报表摘要。两条路,一个核心判断:数据在哪里,AI就得在哪里。 能同时掌控数据和AI的平台,拥有一种独立AI服务商在结构上永远无法复制的优势,不是技术优势,而是位置优势。

对于独立AI服务商来说,数据这件事构成了一个几乎无解的困境。让客户把数据搬出来给你用,是一件充满摩擦的事情:安全审查要走,合规评估要做,数据脱敏要处理,格式转换要完成,跨系统的接口联调要反复打磨。这套流程走下来,短则两周,长则数月。但更根本的问题在于:即便客户愿意配合完成这一切,数据依然在客户侧,并没有真正流入服务商的体系。你帮一百家企业客户分别处理了他们的业务数据,积累了什么?积累了工程能力,积累了案例经验,但数据本身(那些隐藏在一行行交易记录里的业务规律、那些在客服对话里沉淀下来的用户意图模式)全部留在了客户自己的系统里。服务商的数据飞轮,停着。而那些同时持有数据和AI能力的平台,飞轮一圈一圈地转。

回到那家中型电商:他们的个性化推荐服务商,每隔三个月就需要做一次模型更新。每次更新,都需要电商方配合做一次数据导出,字段映射要重新确认,时间窗口要重新对齐,隐私数据要重新脱敏,整套流程走下来,差不多要耗费两个星期。就在这套流程第五次启动的时候,电商的数据工程团队发现了一件事:Snowflake的Cortex AI已经可以直接在数据仓库里运行推荐逻辑。效果差一些,召回率大概低了10%到15%,但数据完全不需要出数仓,不需要任何安全审批,不需要任何跨部门协调。这是一场不公平的竞争,推荐服务商比拼的是模型质量,而Cortex AI比拼的是摩擦成本为零。推荐服务商最终输掉的,不是算法,是数据的距离。

数据平台和AI能力的一体化,已经不是客户选型时的加分项,而是一道越来越高的门槛。独立AI服务商如果解决不了数据接入和持续沉淀的问题,就永远只是在给别人的飞轮添砖加瓦,自己的飞轮始终停着不动。


云服务商的引力场,让独立AI服务商的获客越来越难


即使一家独立AI服务商在技术上做到了足够好,它还要面对一个更为隐蔽、也更为强大的力量:云服务商构建出来的引力场。

企业和主力云服务商之间的绑定,是一种三层叠加的结构性锁定。第一层是技术绑定:企业的IAM权限体系、VPC网络架构、日志审计和合规体系,都已经深度集成在主力云平台上。引入一个独立的AI服务商,意味着IT团队要在已有的安全体系之外单独维护一套新的访问控制和数据流出策略,每多一个独立服务商,就多一个需要管理的安全边界。技术团队的本能反应,是能不引入就不引入。第二层是数据绑定:企业核心数据往往已经落在云上的数据仓库或数据湖里,将这些数据搬出去交给外部服务商处理,本身就附带着安全风险和合规成本。在数据本就在云上的前提下,使用云平台内置的AI能力,是阻力最小的路径。第三层,也是最被低估的一层,是商务绑定:AWS Marketplace的积分返还机制、Azure企业协议的消费折扣、GCP的消费承诺激励,这些商务安排让CFO在面对”差不多好用”的两个方案时,天然倾向于选择能并入现有云账单的那一个。独立AI服务商在这三层绑定面前,要证明的不只是自己的AI更好,而是提供一个值得客户为此额外增加系统复杂度和商务成本的充分理由。

2026年4月发生的一件事,可以作为这个逻辑的最直接注脚:OpenAI宣布正式大规模入驻AWS Bedrock,就此结束了与Azure的独家分发关系。这个事件的商业意义远比表面上看到的更深。OpenAI和Azure的独家合作,是这几年里科技行业最被频繁引用的战略绑定案例之一,微软的巨额投资,换来的是OpenAI在企业市场的优先分发权。但即便是OpenAI,最终也不得不选择进入AWS的生态体系,才能系统性地触达那些主要业务跑在AWS上的企业客户。Azure独家优势能维持如此之久,靠的并不是技术上的锁定,而是大量企业客户对整个Microsoft生态的深度依赖(M365、Active Directory、Teams、合规体系)这些东西的存在,让Azure账号成了那些客户事实上的企业身份中枢。这是云引力场最直接的一次自我证明:连OpenAI都必须来,何况其他人。

那家中型电商的供应链预测服务商,遭遇了一次让人沮丧的续约谈判。不是效果出了问题,过去一年,服务商交付的预测准确率稳定在客户预期范围内,双方关系也算融洽。谈判卡住,是因为这家电商刚刚签署了一份三年期的GCP消费承诺协议,为此拿到了一笔可观的折扣返还。财务部门明确要求,所有AI相关的新增支出,都应该尽可能地并入GCP账单框架来处理,以便最大化消费承诺的利用率。服务商无法提供GCP Marketplace的采购通道,独立账单意味着这笔支出游离于承诺框架之外,需要额外的预算审批流程,也无法享受到任何折扣。谈判的结果是:合同被压缩到了一个刚好维持合作关系的最小规模,续约金额不到上一年的四成。没有人说服务商做得不好,但没有人帮它说话。

独立AI服务商在市场里真正要对抗的,不只是同类竞争者,而是客户云账单上那些”已有选项”。那些选项不需要额外的预算审批,不需要额外的安全评审,不需要额外的合规报告,它们只需要被选中。这是一场在起跑线上就已经不对等的竞争。


AI Coding正在瓦解”需要AI服务”的最后一批场景


前三节讨论的压力,主要来自外部结构:云平台的垂直整合、数据平台的一体化、云生态的商务引力场。但还有一股力量从更意想不到的方向涌来,它正在侵蚀的是独立AI服务商最后的那些立足点。

在2025年之前,企业购买AI服务有一个逻辑上成立的理由:自建成本太高。没有足够的AI工程师,没有时间,没有基础设施,没有处理数据管道和模型部署的经验,这些都是真实的摩擦,让”采购现成的AI服务”成为一个理性选择。这个逻辑在2025年开始以肉眼可见的速度瓦解。Cursor、Claude Code、GitHub Copilot这一代AI编程工具,已经让一个普通的工程师团队能够在数周之内构建出过去需要数月才能交付的AI功能。斯坦福AI指数的数据在这里提供了一个关键数字:达到GPT-3.5水平的推理成本,在两年间下降了整整两百八十倍。这不是渐进式的改善,这是一个量变触发质变的拐点,”自建AI能力”这件事的经济账,正在以惊人的速度向有利于自建的方向倾斜。Stripe的工程师团队大规模部署Cursor之后,单位工程师的生产效率提升所节省下来的成本,已经超过了公司过去采购若干外部AI服务工具的总支出。对于Stripe这样的公司来说,AI工具不再是成本项,而是成本节约项。

这场工具革命带来的影响,不只是”现在能自己写了”这么简单。更深层的变化在于认知层面。当工程师们开始用Cursor和Claude Code大量构建AI功能,他们对AI系统的组成有了直接的感知:模型调用是什么、RAG是怎么工作的、Embedding如何生成、提示工程能解决什么问题又解决不了什么问题。这些知识过去存在于专门的AI团队或专门的AI服务商那里,现在已经分散到了每一个日常使用AI编程工具的工程师手中。随之而来的是:客户对独立AI服务商的提案,开始用一种完全不同的眼光来审视。一个方案里有多少是真正不可替代的核心能力,有多少只是”我们也可以自己写一个”的组合拼装,这两者之间的界限,在有AI编程工具的工程师团队面前,越来越透明。独立AI服务商原本赖以存在的信息不对称,正在快速消失。

现在,可以回到引言里留下的那个悬念了。2024年,Klarna轰动业界的AI转型宣言,实际发生了什么?

事实是:Klarna并没有用AI替代SaaS。他们用更便宜的SaaS替换了更贵的SaaS。Workday被替换成了Deel,CRM功能被拆分成若干更轻量的第三方工具,整个过程中AI扮演的角色,更多是帮助完成迁移过程中的数据清洗和流程自动化,而不是真正取代了企业软件的核心功能。那个被广泛引用的”700名客服被AI替代”的说法,其真实情况是:Klarna在这一时期大幅缩减了客服团队的规模,AI Bot承接了相当一部分标准化的客服查询,但主要驱动因素是业务收缩和组织重构,并没有实现全面替代。到了2025年初,CEO Siemiatkowski公开承认,激进的AI替代策略导致了部分服务环节质量的明显下滑,公司开始着手重新招募客服人员,尤其是需要处理复杂诉求的高级客服岗位。Klarna的故事,是一个典型的”先宣布、后反思”的企业AI转型案例。它揭示的真实教训不是”AI失败了”,而是:即使是最激进的AI自建方,在这场转型的终点,仍然是在使用SaaS,只不过换成了更轻、更便宜的那种。 独立AI服务商在这整个过程里,既不是被替换的Salesforce,也不是胜出的AI自建方,他们是旁观者。

那家中型电商的技术团队,在公司全员推行Claude Code之后,有一个项目经理做了一个决定:让两名工程师花三周时间,用AI编程工具尝试复刻智能客服服务商的核心功能。三周后,他们完成了大约七成的功能覆盖。更关键的是,这个自建版本可以直接接公司内部的CRM数据库和订单系统,省去了所有的数据导出协议、安全审批流程和跨系统对接工作。自建版本的效果比服务商方案差一些(在处理复杂退换货诉求时的准确率大约低了15%)但这个差距在业务团队眼里,已经不再值得为之支付每年数十万元的服务费。最后一个AI服务商的续约合同,就此被搁置。


能活下来的,都找到了逃逸路径


读到这里,可能有人会问:难道所有的独立AI服务公司都注定失败?

不是。但能真正做成的,无一例外都已经不再是”纯粹的AI服务商”了。

仔细看真正做成规模的”AI服务”公司,有一个隐而不显的共同特征:他们最终卖的不是AI能力本身,而是AI能力打开了门之后,沉淀下来的那些无法轻易替代的东西。这种不可替代性,沿着两条截然不同的路径构建:要么向上整合进基础设施层,让自己成为AI时代的数据或计算管道;要么向下扎入垂直场景,让自己的工作流嵌入变成客户的运营依赖。两条路的终点,都不是”AI服务商”,而是”基础设施”或”垂直平台”。

Databricks走的是第一条路。从最初的Spark数据处理平台,到统一数据和AI的Lakehouse架构,再到通过收购MosaicML和Neon构建起AI训练和实时数据应用的完整基础设施,Databricks每一次战略演进,都在把自己的护城河从”更好的AI”转向”不可或缺的数据基础设施”。今天的企业客户用Databricks,不只是因为Databricks的AI能力有多强,而是因为他们的业务数据管道、特征工程流程、实时推理部署,全部已经跑在Databricks上。换掉它的成本,不是技术成本,而是组织重构成本。

Scale AI的路径同样值得细看。这家公司起家于AI训练数据的人工标注,在最初几年里做的是一门相对传统的劳动密集型生意。但随着大模型对高质量训练数据的需求急剧上升,Scale AI把自己从”标注服务商”转型成了”训练数据基础设施的核心供应商”:他们卖的不再是人工标注能力,而是一套端到端的数据管道和质量保障体系,服务于美国国防部、各大AI实验室和顶级科技公司。在这个新的定位里,Scale AI不是AI服务商,而是AI训练体系的必要条件。

Harvey在法律AI领域做到了另一种深度。Harvey的产品本质上是一个面向律所的AI助手,但他们真正在构建的是一套深度嵌入律所工作流的案件知识系统。每一个律所接入Harvey,Harvey就开始积累这家律所在案件类型、法律论证策略、文件格式标准上的专有知识;与此同时,Harvey持有的跨律所的案件数据和法律文本积累,又反过来让每一个律所的使用体验越来越好。Harvey的竞争对手不是另一家法律AI公司,而是律所自己的IT团队,而律所的IT团队在未来相当长的时间里,几乎不可能复刻这套系统。

Abridge在医疗领域构建的是一道双重门槛。首先是合规门槛:医疗AI需要HIPAA合规认证、临床验证流程和医疗机构采购审批,这是一道任何创业公司都无法快速跳过的监管壁垒。其次是数据门槛:Abridge与医院系统的深度集成,让临床数据以授权方式持续流入其训练管道,形成了一个随时间自我加强的医疗数据飞轮。当这两道门槛叠加在一起,Abridge的护城河就不再只是”更好的医疗AI”,而是”要换掉它,你需要同时解决合规重认证、数据迁移和系统重集成三个问题”。

这四家公司的共同点,现在应该已经清晰:AI能力是入口,不是终点。他们用AI能力打开了客户关系、赢得了第一份合同,然后把竞争的焦点迅速转移到了数据控制权、工作流嵌入深度、或者行业合规壁垒上。在他们各自的商业模式里,”我们的AI更好”是一个次要命题,”换掉我们的成本极高”才是核心命题。


结论:AI能力是入场券,不是护城河


两年后,那家中型电商的AI技术栈长这样:主云平台是GCP,核心数据仓库是BigQuery,AI分析和推荐功能跑在Gemini的原生接口上;工程团队用Claude Code自建了若干定制化的功能模块,其中包括一个接公司内部物流系统的供应链异常预警工具,以及那个三周复刻出来的客服助手。整套体系的运营成本,比两年前接入三家独立AI服务商时低了大约四成,功能覆盖反而更广。三家独立AI服务商,一个都没有留下。

这不是一个孤立的案例,而是一个正在大规模复制的选型结果。从北美到亚洲,从金融服务到零售,从中型企业到大型集团,类似的故事正在无数家公司的IT预算讨论里重演。

Klarna的故事,在这里有了它真正的意义。那个”替代了700名客服”的OpenAI Bot,确实还在Klarna的技术栈里运行着。但它是OpenAI的产品,通过OpenAI的API提供服务,计入OpenAI的营收,沉淀在OpenAI的规模优势里。没有任何一家独立AI服务商从Klarna的AI转型中获益。Klarna的教训不是”AI服务不好用”,而是:当AI能力本身不再是稀缺资源的时候,能留存下来的只有那些和业务流程、数据资产真正深度绑定的部分:而这些绑定,最终发生在云平台、数据平台、或者垂直场景深度整合者那里,而不是中间层的独立AI服务商那里。

把AI当服务卖,正在成为一个越来越难以独立成立的商业逻辑。这不是一个技术判断,而是一个结构判断:AI产业正在把价值系统性地重新分配给芯片层、云平台层、以及垂直场景的深度整合者。夹在中间的独立AI服务商,正在被从四个方向同时挤压:全栈平台带来的引力、数据一体化带来的壁垒、云生态商务机制带来的价格扭曲、以及AI Coding工具带来的自建潮。这四个力量不是依次出现的,而是同时在场的。

不是AI这门生意不好做。AI相关的机会,在可见的未来里只会越来越大。但”AI as a Service”这个位置(把AI能力本身作为核心产品包装起来卖给企业客户的商业模式)正在失去它存在的理由。能活下来的,都已经用AI做了别的事。