微软的AI战略:让OpenAI烧钱,然后坐享成果

微软AI首席执行官Mustafa Suleyman近期公开赞扬了在生成式AI竞赛中"甘当配角"的战略价值。
2025-04-10 16:55:08  |   作者:开源爱好者  |   来源:

微软的AI战略:让OpenAI烧钱,然后坐享成果

微软AI首席执行官Mustafa Suleyman近期公开赞扬了在生成式AI竞赛中"甘当配角"的战略价值。
2025-04-10 16:55:08
作者:开源爱好者
来源:

在上周的电视新闻采访中,微软AI首席执行官Mustafa Suleyman提出:与其直接对抗前沿模型构建者(包括已从微软获得数十亿美元投资的OpenAI),不如保持3-6个月的跟随距离,利用其成功基础进行二次开发,这种策略更具成本效益。他在周五接受CNBC采访时表示:"鉴于这些模型的资本密集性,我们的策略是保持紧密跟随。"

Suleyman补充道,这种滞后策略不仅能降低成本,还为微软争取了优化特定客户用例的时间窗口。

图片1.jpg

尽管该战略对身处生成式AI浪潮核心的微软而言看似反常,却反映了微软(及Suleyman)的独特处境。值得回顾的是:Suleyman最初以DeepMind联合创始人身份闻名(该公司2014年被Google收购),去年在短暂担任Inflection AI首席执行官后加入微软。

当前,其前雇主Google正与Anthropic、OpenAI等公司竞相开发功能更强大的模型,而微软尚未推出自己的前沿模型。微软选择与OpenAI深度绑定——微软向后者提供大量Azure云计算资源,以换取在其日益壮大的Copilot品牌AI服务中使用GPT系列模型的授权。

这种合作关系或许解释了Suleyman的策略逻辑:当OpenAI的Sam Altman已替你承担前沿模型研发风险时,自行投入巨额资本开发市场前景不确定的模型显然不够明智。

话虽如此,微软并未将所有筹码押注单一方向。虽然GPT系列是Windows和微软云Copilot服务的核心支撑,但并非唯一选项。这家软件巨头还以Phi为代号开发了开源小型语言模型系列。

相比GPT-4.5等模型,Phi系列体积显著缩小(参数规模在十亿到百亿量级),适用于笔记本等边缘设备部署,而非依赖造价数百万美元的GPU集群。不过这些模型在功能特性(如多模态或专家混合架构/MoE)方面仍普遍落后于OpenAI顶级产品。

从体验来看,Phi系列模型在其参数规模下表现合格,尽管功能创新性相对不足。小型化也带来独特优势:例如14B参数的Phi-4仅需单块高端GPU即可维持可接受的生成速度。

迈向自主化的前奏

虽然Suleyman可能短期内无意直接与OpenAI或Anthropic竞争,但微软对OpenAI的依赖或许不会永久持续。他在接受CNBC采访时强调:"从长期来看,微软必须实现AI技术的自主化,这绝对属于战略级任务。"

尽管Phi系列可能是实现这一目标的前期探索,但微软与OpenAI的联盟至少还将持续五年。他补充道:"至少到2030年,我们与OpenAI仍将保持深度合作,这段关系对双方都极为成功。"

微软似乎在淡化与OpenAI的合作关系,根据去年公布的协议,微软不再是OpenAI的独家云合作伙伴。同时,OpenAI也在选择更多合作伙伴,此前该AI实验室已宣布与甲骨文、软银开展Stargate项目合作。

值得注意的是,微软并非唯一采取跟随策略的云服务商。亚马逊云科技(AWS)显然属于同一阵营:其不仅重金投资OpenAI的竞争对手Anthropic(例如去年12月公布的Project Rainier计算集群),同时也在秘密开发代号Nova的自研语言模型系列。与微软不同,AWS对Nova项目采取闭源策略,而Phi系列采用MIT许可协议并在Hugging Face等平台开源。

阿里巴巴的Qwen团队也被认为实施了类似策略。Qwen系列模型因"以小搏大"的特性获得关注——虽无技术突破,但其32B版本在参数量仅为竞品数分之一的情况下实现了可比性能。以QwQ 32B预览版为例:该模型在OpenAI发布o1推理模型两个月后面世,经过三个月优化后推出正式版,与o1最终版发布时间相隔三个月。

中国AI初创公司深度求索(DeepSeek)也印证了该模式可行性:在推理语言模型概念验证后,该公司专注于通过迭代优化大幅降低此类模型的训练与运行算力需求。

系统化路径

除了成本优势外,Suleyman的战略还意味着微软能将更多精力投入围绕大语言模型构建应用程序和其他系统,而非探索调整神经网络架构的新方法。

尽管模型本身吸引了大量关注,但如何以实际价值方式将其集成到企业系统中仍是一个复杂命题。

在Phi系列模型之外,微软持续推出旨在简化模型集成流程、提升计算效率的研究成果与软件框架。例如:

• 该科技巨头开发了Autogen框架——用于协调多智能体协作的框架;

• 上个月,微软详细介绍了KBLaM项目,其目标是通过结构化数据扩展语言模型知识时降低计算量与复杂度;

• 上周,微软发布了VidTok——一个将视频内容转换为token序列的开源视频标记器,旨在提升机器学习模型对视频内容的理解能力。