随着生成式AI的兴起,超规模公司——AWS、谷歌和微软——正在进行新一轮激烈的竞争。
生成式AI需要巨大的计算能力和大型数据集,这使得公有云成为理想的平台选择。从提供基础模型即服务到培训和微调生成式AI模型,公共云提供商正在竞相吸引开发者社区和企业。
本文分析了亚马逊、谷歌和微软在生成式AI领域的发展战略。下表总结了主要公共云提供商提供的GenAI服务的现状:
AWS:在Amazon Bedrock和Amazon Titan上下大赌注
与主要竞争对手相比,AWS在AI领域起步较晚,但它正在迅速赶上。
说到生成式AI,AWS正在投资三项关键服务——Amazon Sagemaker JumpStart、Amazon Bedrock和Amazon Titan。
Amazon SageMaker JumpStart是一个访问、自定义和部署ML模型的环境。AWS最近增加了对基础模型的支持,使客户能够使用和微调一些最流行的开源模型。通过与Hugging Face的合作,AWS可以轻松地从精心策划的开源模型目录中推理或微调现有模型。这是一种为SageMaker带来生成式AI功能的快速方法。
在私下预览中,AWS透露Amazon Bedrock是一个通过API使用基础模型的无服务器环境或平台。尽管AWS没有透露太多细节,但与Azure OpenAI相比,它看起来确实是一个有竞争力的产品。客户将能够访问通过专有网络的私有子网公开的安全端点。
亚马逊已经与GenAI初创公司(如AI21Labs、人类学和Stability.ai)合作,通过Amazon Bedrock API提供基于文本和图像的基础模型。
Amazon Titan是一个由自己的研究人员和内部团队建立的本土基础模型的集合。Titan预计将带来一些为Alexa、CodeWhisperer、Polly、Rekognition和其他人工智能服务提供动力的模型。
笔者预计亚马逊将推出用于代码完成、单词完成、聊天完成、嵌入、翻译和图像生成的商业基础模型。这些模型将通过Amazon Bedrock公开,用于使用和微调。
亚马逊还可能推出一个专门的矢量数据库,作为Amazon RDS或Aurora系列产品下的一项服务。目前,它支持pgvector,这是一个PostgreSQL扩展,用于对Amazon RDS提供的单词嵌入执行相似性搜索。
谷歌云:建立在PaLM的基础上
大量与GenAI相关的公告占据了谷歌I/O 2023的主导地位。生成式AI对谷歌很重要,不仅对其云业务很重要,对其基于Google Workspace的搜索和企业业务也很重要。
谷歌投资了四个基础模型:Codey、Chirp、PaLM和Imagen。这些模型可通过Vertex AI提供给谷歌云客户,供其使用和微调自定义数据集。通过Vertex AI提供的Model Garden有开源和第三方基础模型。谷歌还推出了一个“游乐场”(GenAI Studio)和无代码工具(Gen App Builder),用于构建基于GenAI的应用程序。
为了将LLM模型的功能扩展到DevOps,谷歌还将PaLM 2 API与Google Cloud Console、Google Cloud Shell和Google Cloud Workstations集成,以添加一个助手来加速操作。此功能可通过谷歌云的Duet AI获得。
谷歌的GenAI产品组合中缺少一个原生矢量数据库。它可以增加在BigQuery和BigQueryOmni中存储和搜索向量的能力。目前,客户将不得不依赖添加到Cloud SQL中的pgvector扩展,或者使用第三方矢量数据库,如Pinecone。
微软Azure:充分利用其OpenAI投资
通过与OpenAI的独家合作,微软在生成式AI领域中领先于竞争对手。Azure OpenAI是公共云中成熟且经过验证的GenAI平台之一。
Azure OpenAI将OpenAI的大部分基础模型(不包括Whisper)带到了云端。通过相同的API和客户端库,客户可以快速使用Azure上的text-davinci-003和gpt-35-turbo等引擎。由于它们是在现有订阅和可选的专用虚拟网络中启动的,因此客户可以从数据的安全性和隐私性中获益。
微软已经将基础模型与Azure ML(一种作为服务的托管ML平台)集成在一起。客户可以使用熟悉的工具和库来使用和微调基础模型。
微软还投资了一个名为Semantic Kernel的开源项目,旨在为C#和Python开发人员带来LLM编排,如提示工程和增强。它类似于LangChain,一个流行的与LLM交互的开源库。
在矢量数据库方面,微软扩展了Azure Cosmos DB和Azure Cache for Redis Enterprise,以支持语义搜索。