亚马逊云科技是全球云计算的开创者和引领者,更是企业构建和应用生成式AI的首选,今年re:Invent全球大会的一系列重磅发布再次印证了这一点——其不仅在云的核心服务层面持续创新,更是从芯片到模型,再到应用的每一个技术堆栈取得突破,让不同层级的创新相互赋能、协同进化。
更重要的是,作为初创企业18年来最为青睐的云服务提供商,亚马逊云科技已经拥有数百万的客户,运行着各种各样、令人叹为观止的应用场景。而这将在生成式AI时代得以延续:亚马逊云科技将在2025年为初创企业提供超10亿美元云计算资源,为用户带来更多创新机会。
“2025年很多客户将从原型验证阶段转化为生产阶段,这是必经之路。届时客户需求将更加复杂,不仅是选择模型,还需要各种技术支持。”亚马逊云科技大中华区产品部总经理陈晓建表示,几乎所有的应用程序都可以分解成为几个核心的构建单元,亚马逊云科技所做的就是构建出非常优秀的核心单元,用户通过自由搭建这些核心单元,满足他们在特定场景下不同的业务需求。
亚马逊云科技大中华区产品部总经理陈晓建
在计算单元,目前亚马逊云科技提供的计算实例已经比其他所有云计算提供商都要多,这一切都来源于亚马逊云科技最初的核心产品Amazon EC2。它为用户提供了更多选择、更多实例类型和更多功能,让客户能为应⽤和⼯作负载找到更具性价⽐的解决⽅案。
实现这一功能的幕后英雄就是亚马逊云科技自主开发的Amazon Nitro System核心系统。作为虚拟化系统,采⽤了亚⻢逊云科技⾃主设计的芯⽚,能够承担⽹络、计算和存储的虚拟化⼯作。同时提供裸机性能、高安全性、隔离性和灵活性,推动计算领域创新,为后续芯片创新奠定基础。
另外,亚马逊云科技继续推出通用自研芯片Amazon Graviton4,其单核计算性能提升了30%,虚拟CPU数量和内存容量都是上一代的3倍。据了解,在规模最⼤的1000家Amazon EC2客户中,已有超过90%开始使⽤Amazon Graviton。
在⾃主研发的AI芯⽚领域,搭载Amazon Trainium2的Amazon EC2 Trn2实例现已正式在海外区域推出,与当前⼀代基于GPU的实例相⽐,Amazon Trainium2的性价⽐提升了30-40%。这样的性能表现是其他云服务提供商⽆法企及的。每个Trn2实例都配备了16个Amazon Trainium2芯⽚,这些芯⽚通过NeuronLink的⾼带宽、低延迟互连技术相连,使单个实例能够提供⾼达20.8 Petaflops的计算性能。
在存储单元,就不得不提Amazon S3。作为亚马逊云科技在2006年推出的少数几个应用之一,它改变了大家使用存储的方式,到今年已经经历了18年的时间。
“10年前在我们平台上面使用Amazon S3服务且容量超过1PB的客户还不到 100 家,今天这个数据已经超过了数千家,甚至有几个客户的容量已经超过了1EB。”陈晓建透露,Amazon S3的整个存储容量超过了400万亿个对象。现在的客户已将这种扩展能⼒视为理所当然,但这不仅仅是规模的问题,随着客户需要管理爆炸式增⻓的存储需求,还需要管理成本,亚马逊云科技正在让这⼀切变得更加简单。
Amazon S3 Tables正式可用,这是⼀种专为Iceberg表设计的全新存储桶类型 ,查询速度提⾼到3倍,与常规Amazon S3存储桶相⽐,每秒可处理事务数量提升到10倍;与此同时,Amazon S3 Metadata元数据服务也正式可用,这是⼀项全新服务,能帮助客户即时发现和理解Amazon S3中的数据,能够⾃动为客户创建可查询的元数据,并且⼏乎实时进⾏更新。
在数据库服务单元,亚马逊云科技提供了多种适⽤于不同场景下专⻔构建的的数据库——从关系型数据库,到图数据库到⽂档数据库,每种使⽤场景都能找到合适的数据库⼯具。这些专⻔构建的数据库⼴受欢迎,让许多此前⽆法实现的⼯作负载变成了现实。
“客户需要Amazon Aurora这样的关系型数据库,它既能提供商用数据库的性能,又能像开源数据库一样具备高度的一致性,而且相比于开源数据库,它的性能可以提升到三到五倍,成本却仅仅是商用数据库的1/10。”在陈晓建看来,⼀个完美的数据库解决⽅案应该有这些功能:具有⾼可⽤性、⽀持跨区域部署、具备低延迟性能、⽀持强⼀致性、运维负担接近于零,还必须兼容SQL。为此,亚马逊云科技开发出了⼀种全新的事务处理⽅法——将事务处理与存储层分离,这样就不⽤每条语句都去查询存储层,只需在提交时进⾏⼀次性检查,在提交阶段,我们会将所有写操作并⾏地执⾏到各个区域,由此既保证了强⼀致性,⼜实现了极速的数据库写⼊。
Amazon Aurora DSQL是一款全新的无服务器分布式SQL数据库,它结合Amazon Time Sync服务,采用完全无服务器设计,可在多区域实现近乎无限扩展,可用性高达99.999%,支持强一致性,具备低延迟的读写性能,完全兼容PostgreSQL。与其他的流行分布式SQL数据库相比,其读写速度提升了4倍。
Amazon DynamoDB global tables现已支持多区域强一致性,⽆论客户选择SQL还是NoSQL数据库,都能享受到这些优势:⽀持主动-主动的多区域部署,同时具备强⼀致性、低延迟和⾼可⽤性。
在数据分析服务单元,亚马逊云科技提供了最全⾯、最深⼊的专⽤服务组合包括数据仓库Amazon Redshift、⼤数据处理Amzon EMR、搜索分析Amazon Opensearch、流数据分析Amazon Kinesis/Amazon MSK、数据集成Amazon Glue,交互查询的Amazon Athene,以及BI⼯具Amazon Quicksight等多个领域的产品和服务。
亚马逊云科技正在将所有这些组件整合起来,推出了新⼀代Amazon SageMaker。它现已成为满⾜客户所有数据、分析和AI需求的统⼀平台,整合了最全⾯的数据、分析和AI⼯具集(包括⼤家熟悉且信赖的 SageMaker)。
也就是说,新的Amazon SageMaker涵盖了分析、数据处理、搜索、数据准备、AI模型开发和训练、⽣成式AI等所有必需功能。全部功能都可以通过统⼀的企业数据视图实现。
新发布的Amazon SageMaker Unified Studio,这是一站式数据和AI开发平台,现已开放预览。它可以访问企业数据并使用最合适的工具进行处理,整合了多种功能,支持创建包含AI或分析资源的共享项目,方便数据科学家、分析师和机器学习专家开展协同工作,同时内置数据目录和治理功能,通过安全控制确保组织中的不同用户只能访问其权限范围内的资源和数据。
Amazon SageMaker Lakehouse为所有数据源提供简单统一的访问方式,兼容Apache Iceberg。用户可以在统一开发环境中轻松处理所有数据,也可以通过任何支持Apache Iceberg API的第三方AI或分析工具、查询引擎直接访问SageMaker数据湖仓。
此外,原先的Amazon SageMaker现在更名为Amazon SageMaker AI,并推出数项重要更新:Amazon SageMaker HyperPod 新训练配方功能,提供30多个精选的模型训练配方,可适用于时下热门的一些公开可用模型,包括Llama 3.2 90B、Llama 3.1 405B和Mistral 8x22B;Amazon SageMaker HyperPod 灵活训练计划,借助这项功能,用户可以快速制定训练计划,自动预留资源、配置集群并创建模型训练作业,为数据科学团队节省数周训练新模型的时间;Amazon SageMaker HyperPod任务治理功能,用户可以轻松设定从实验、训练到微调等各类模型开发任务的优先级;用户现在可以在Amazon SageMaker中发现、部署和使用亚马逊云科技合作伙伴提供的AI应用。
“客户在构建整个生成式AI的旅程时,需要的不只是模型,甚至不只是生成AI这个词,更多的是数据加AI的统一。”亚马逊云科技大中华区数据分析与生成式AI的产品总监崔玮表示,新一代Amazon SageMaker就是数据加AI,首先是统一的平台;第二它要开放,第三还是要安全。亚马逊云科技会通过这三层,给客户提供从数据到AI的一体化的感受。
在AI推理单元,陈晓建认为,生成式AI推理将成应用核心构建块,未来应用需支持规模化推理平台,利用专有数据,平衡性能、安全性和成本,模型选择至关重要。
为此,亚马逊云科技新发布Amazon Nova系列模型,其中Nova Micro是文本到文本模型,能以极低成本提供低延迟响应;Nova Lite为成本极低的多模态模型,可快速处理多种输入;Nova Pro是功能强大的多模态模型,在准确性、速度和成本间平衡;即将推出的Nova Premier是其中能力最强的多模态模型,可处理复杂推理任务并指导定制模型蒸馏。
与此同时,发布新一代图像生成模型Amazon Nova Canvas,它能帮助客户生成高质量图像,还具备图像编辑功能,最高可以生成高达两K(2000乘以2000)、2048乘以2048这样的图像,并且用户很快就可以通过Canvas这个模型进行微调;以及新一代视频生成模型Amazon Nova Reel,以先进的视频生成质量和低延迟而自豪,提供了性能和成本效益之间的平衡。
在模型合作与扩展方面,poolside、Luma AI、Stability AI的Stable Diffusion 3.5模型等将很快在Amazon Bedrock上线。
另外,在AI推理单元,构建工具也十分重要。Amazon Bedrock是构建和扩展生成式AI应用的关键平台,为客户提供将推理功能整合到生产环境所需的工具。
亚马逊云科技新发布Amazon Bedrock推出延迟优化选项,基于Amazon EC2 Trn2实例,利用最新硬件和软件优化,可在多模型上实现更好的推理性能。用户指定推理请求优先级后,平台自动处理,该功能已面向特定模型开放预览,如Llama 405B模型在延迟优化版本中性能显著提升,Anthropic的 Claude 3.5 Haiku模型延迟优化版处理速度大幅提高。
Amazon Bedrock推出模型蒸馏功能,用户只需提供示例提示,平台自动完成工作,通过蒸馏得到的模型运行速度提升到5倍,成本降低75%,显著提升生成式AI项目投资回报;Amazon Bedrock 知识库支持GraphRAG,利用Amazon Neptune自动生成图谱,建立数据源关联,无需专业知识即可开发更全面的生成式AI应用,清晰展示连接和信息来源,提升事实验证透明度,通过API调用可让应用生成更准确响应。
Amazon Q是亚马逊云科技推出的一个生成式AI应用工具,包括Amazon Q Developer和 Amazon Q Business,帮助没有任何生成式 AI 专业能力的业务人员快速便捷的使用生成式 AI 的功能。
具体来看,Amazon Q Developer的软件开发Agent在 SWE – bench测试中名列前茅,目前已能解决54.8%的软件开发问题,且七个月内能力提升两倍多。同时推出三款新自动化智能体,包括能够实现自动执行单元测试、文档生成和代码审查流程的智能体,可大幅提升开发人员在整个软件开发流程中的效率。
值得一提的是,Amazon Q Developer新功能加速大规模传统工作负载的转型,旨在加速Windows .NET、VMware和大型机工作负载的迁移和现代化,缩短转型时间并降低成本。可将.NET应用从Windows到 Linux的迁移速度提升4倍,成本节省高达40%;可将VMware工作负载迁移到云原生架构,自动识别依赖关系并改造网络配置,不仅能缩短迁移时间,还能⼤幅降低⻛险,时间从传统的数周或数月降低至几小时。
Amazon Q Business是⼀款功能强⼤的⽣成式AI助⼿,它既能充分利⽤公司内部数据,⼜能加快任务处理速度。Amazon Q可以连接企业数据源、亚⻢逊云科技、第三⽅应⽤和维基百科等各类业务系统,让用户能够在不同的数据孤岛中进⾏搜索、总结信息,并就相关内容展开对话。
“去年我们在QuickSight 中集成了Amazon Q,让⽤户能借助⽣成式AI更快地获取⻅解,轻松提问并分析数据,获得更深⼊的洞察。”陈晓建透露,亚马逊云科技即将实现 Amazon Q in QuickSight与Q business数据的⽆缝整合,可整合多源数据,提供数据洞察,成为企业数据源标准索引,提升应用性能。
写在最后
与以往不同的是,本届re:Invent大会上的新发布更加侧重于产品的实际应用和工具优化,这表明过去一年中,全球用户正在积极使用亚马逊云科技进行生成式AI应用的探索和创新。
陈晓建也多次强调,以前每年主要在re:Invent发布重大特性,现在re:Invent只是发布生成式AI特性的一个窗口。亚马逊云科技会继续保持开放选择的理念为用户带来更多创新机会,进一步推动AI的发展。