AWS的多模AI策略及其在云市场的竞争优势内容导读
AWS的AI多模策略
Amazon Web Services(AWS)并未押注于单一的AI模型,而是希望通过多样化的AI模型选择赢得市场。与微软、谷歌和Meta等巨头竞争大语言模型不同,AWS旨在为客户提供他们所需的任何模型,并不仅仅作为AI训练平台,还希望成为一个销售AI模型的市场。
AWS CEO Matt Garman在2024年高盛Communacopia和技术会议上表示:“不会有一个模型主宰所有。今天最好的模型明天可能就不是最好的。如果有一个平台可以提供多个模型,那么可以轻松利用新模型或添加其他提供商的能力。”
Bedrock服务的广泛选择
在最新的财报电话会议中,Amazon CEO安迪·贾西提到AWS的Bedrock服务提供了最广泛的LLM(大语言模型)选择,包括来自Anthropic的Claude 3模型、Meta的Llama 3模型和Amazon自己的Titan模型。客户可以利用这些领先的基础模型构建他们自己的AI应用程序。
AWS与Oracle的合作伙伴关系
尽管AWS和Oracle在过去15年中存在激烈竞争,但两家公司在周一宣布了合作伙伴关系。这标志着AWS通过合作而不是直接竞争的方式来多元化其收入来源并实现AI的商业化。AWS预计今年的收入将达到1050亿美元,占Amazon总收入的约17%。
AWS对AI基础设施的专注
当被问及AWS在AI领域是否落后于微软时,Matt Garman迅速指出微软的技术并非自主研发,而是依赖OpenAI。他表示,AWS更倾向于与合作伙伴合作,而不是直接竞争。
Garman解释说,AWS并不急于推出聊天机器人等技术,而是专注于构建一个能够为企业应用程序带来真正价值的AI基础平台,而非仅仅发布看起来酷炫的工具。
与Nvidia等芯片供应商的合作
AWS不仅为客户提供多种LLM模型,还提供来自Nvidia、AMD、Intel等公司的芯片。Garman表示,目前大多数客户仍然使用Nvidia的芯片,并称其平台非常出色,深受客户欢迎。
虽然AWS也开发了自家芯片,但Garman强调,AWS未来可能会逐步增加对自家芯片的依赖,但不会完全抛弃Nvidia的解决方案,因其在市场中的表现依然强劲。
编辑总结
AWS在AI领域的策略强调多样性和合作,而非单一竞争。这种开放的AI平台和广泛的芯片选择,使其在快速发展的AI市场中保持灵活性和竞争力。通过与多家技术供应商的合作,AWS为客户提供了更多选择,这一策略不仅提升了其技术平台的吸引力,也为其在AI领域的未来扩展铺平了道路。
名词解释
大语言模型(LLM):一种可以通过大量文本数据进行训练的人工智能模型,能够生成或理解自然语言。
Bedrock服务:AWS提供的一项服务,允许客户使用多个领先的基础AI模型来构建定制化的AI应用程序。
相关大事件
2024年9月8日:AWS宣布与Oracle达成合作伙伴关系,尽管两家公司在过去多年间一直是竞争对手。
2024年4月22日:AWS在德国汉诺威的贸易展上展示其最新AI解决方案,进一步推动其多模AI策略。
来源:今日美股网