OpenAI今日宣布與亞馬遜AWS達成一項重磅AI雲基礎設施合作協議。此前,OpenAI與微軟Azure有專屬合作,為其提供AI及雲端基礎設施服務。由於OpenAI對於算力的需求巨大,微軟此前放寬了合作條款,允許OpenAI主要用於研究和模型訓練的基礎設施自行搭建,但微軟仍保留優先拒絕權(ROFR)。
上月,微軟在與OpenAI擴大合作後宣布關鍵變化,允許OpenAI將非API產品(如ChatGPT和Sora)託管在任何雲提供商上。
在最新條款下,OpenAI今日宣布與AWS達成多年合作,將自即日起在AWS上運行並擴展其核心AI工作負載。根據協議,OpenAI將在未來七年內向AWS支付約380億美元。AWS實際上將通過Amazon EC2 UltraServers向OpenAI租賃數千塊NVIDIA GB200及GB300 GPU。
AWS方面表示,預計OpenAI將在2026年底前用盡所有規划算力,2027年有望進一步擴容。AWS還強調,這些基礎設施不僅可用於ChatGPT的推理,也可用於訓練下一代模型。
AWS首席執行官Matt Garman表示:“隨着OpenAI不斷突破AI可能性的邊界,AWS業界領先的基礎設施將成為其AI雄心的支柱。廣泛且即時可用的算力優化,彰顯AWS在支持OpenAI大規模AI工作負載方面的獨特優勢。”
此前,OpenAI的AI模型僅可在微軟Azure平台提供。近期,OpenAI發布了首個可公開調用的權重模型,使AWS能通過Amazon Bedrock為客戶提供服務。亞馬遜今日指出,OpenAI的gpt-oss系列模型,已成為Amazon Bedrock最受歡迎的公有模型之一,包括Comscore、Peloton、Thomson Reuters等眾多客戶正在使用。