据 The Information 报道,OpenAI 已开始使用谷歌的人工智能芯片来支持 ChatGPT 及相关服务,这标志着其首次实现摆脱对英伟达硬件依赖的重大转变。
此举是这家人工智能公司减少对微软管理的基础设施依赖的更广泛战略的一部分。
OpenAI 通过谷歌云租用谷歌的张量处理单元 (TPU),旨在降低推理计算(即训练完成后的模型执行)的相关成本。这一决定可能会提升谷歌 TPU 的知名度,使其成为英伟达广泛使用的图形处理单元 (GPU) 的经济高效替代品,而后者在人工智能领域占据主导地位。
此前,OpenAI 主要通过与微软和甲骨文的合作采购英伟达芯片,用于训练和部署其模型。
据 The Information 援引的消息人士称,虽然谷歌提供了部分 TPU 容量,但据称并未向 OpenAI 提供其最强大的版本。
这一限制意味着谷歌最先进的 TPU 仍供内部使用,包括其在 Gemini 项目下开发的大型语言模型。对于 OpenAI 而言,在行业需求不断增长的背景下,获得早期版本的 TPU 仍然代表着其朝着基础设施多元化迈出的一步。
目前尚不清楚 OpenAI 是否会使用谷歌芯片进行模型训练,还是将其限制在推理工作负载范围内。随着竞争加剧和资源限制加剧,混合用途基础设施或将为扩展提供新的灵活性。
这一安排凸显了人工智能硬件领域不断变化的动态,像谷歌这样的公司正在利用多年来在软件和定制芯片方面的投资。对于 OpenAI 而言,谷歌作为芯片供应商的加入拓宽了其技术栈的生态系统,并缓解了人们对计算资源可用性和成本日益增长的担忧。