亚马逊的AWS云计算部门近期宣布将推出新的AI芯片,供客户构建和运行人工智能应用程序,并计划提供英伟达最新芯片的访问。
具体来看,亚马逊网络服务(Amazon Web Services)正试图通过提供多种经济高效的选择来脱颖而出。不就像亚马逊的在线零售市场一样,亚马逊的云计算将提供来自其他供应商的顶级产品,包括顶级人工智能芯片制造商英伟达(Nvidia)的GPU。
自创业公司OpenAI去年发布ChatGPT聊天机器人以来,对英伟达GPU的需求飙升。ChatGPT聊天机器人具有总结信息和撰写类似人类文本的能力,令人们惊叹不已。这导致英伟达的芯片短缺,各家公司竞相将类似的生成式人工智能技术整合到自己的产品中。
在这一领域中,亚马逊目前的布局“双管齐下”,既生产自己的芯片,又让客户使用英伟达的最新芯片,这可能会帮助它对抗云计算领域的头号竞争对手微软。本月早些时候,微软也采取了类似的做法,发布了其首款人工智能芯片Maia 100,并表示Azure云将采用英伟达H200 GPU。
而AWS则表示,将提供英伟达最新的H200 GPU,该公司还发布了新的Trainium2人工智能芯片和通用的Graviton4处理器。
新的英伟达GPU是H100的升级版,OpenAI曾使用H100来训练其最先进的大型语言模型GPT-4。大公司、初创公司和政府机构都在争夺有限的芯片供应,这意味着从亚马逊等云提供商那里出租芯片的需求也很高。英伟达表示,H200的输出速度将是H100的近两倍。
亚马逊自己的Trainium2芯片是为训练人工智能模型而设计的,即包括OpenAI的ChatGPT等在内的人工智能聊天机器人及其他生成式AI模型。亚马逊表示,初创公司Databricks和OpenAI的竞争对手、亚马逊支持的Anthropic计划用新的Trainium2芯片构建模型,该芯片的性能将比原来的模型提高四倍。
亚马逊Gravon4处理器基于Arm架构,比英特尔或AMD的芯片能耗更低。Gravon4承诺比现有的Gravon3芯片性能提高30%,AWS表示,这一提升将带来更好的输出。考虑到通胀等宏观环境,那些希望继续使用AWS,但又想降低云计算费用的公司可能希望考虑使用Graviton。
亚马逊表示,超过5万名AWS客户已经在使用Graviton芯片。
最后,作为与英伟达加深合作关系的一部分,AWS表示,它将运营超过16000颗英伟达GH200 Grace Hopper超级芯片,这些芯片包含英伟达GPU和基于Arm的通用处理器。英伟达自己的研发团队和AWS客户都将能够利用这一基础设施。
自2006年推出用于计算和存储数据的EC2和S3服务以来,AWS已经推出了200多种云产品。并不是所有的产品都大获成功,有些版本很长时间没有更新,而少数版本已经停产,从而释放了亚马逊重新分配资源的空间。然而,该公司仍在继续投资Graviton和Trainium项目,这表明亚马逊意识到了需求。
AWS没有宣布使用英伟达H200芯片的虚拟机实例的发布日期,也没有宣布使用其Trainium2芯片的虚拟机实例的发布日期。客户现在就可以开始测试Graviton4虚拟机实例,并在之后几个月投入商业使用。


