亚马逊在 12 月 3 日举行的年度云计算产业盛会 AWS re:Invent 上发布了一系列重磅公告,展示了其在云计算和人工智能领域的持续创新和领导地位。
自研大模型 Amazon Nova 系列亮相
亚马逊推出了其自研大模型系列 Amazon Nova,包括四款语言模型(Micro、Lite、Pro、Premier)以及两个生成式模型(图形生成模型 Canvas 和视频生成模型 Reel)。Nova 语言模型兼具准确性、速度和成本效益,而生成式模型可用于提升宣传广告的创意。
推出 Trainium3 AI 训练芯片和 Trn2 UltraServer
亚马逊发布了其第三代自研 AI 训练芯片 Trainium3,采用 3nm 工艺节点,能效提升 40%,性能翻倍提升。同时,亚马逊还发布了其史上最强大的 AI 服务器 Trn2 UltraServer,它将 4 台 Trn2 服务器连接在一起,形成大型服务器,实现更快的大模型训练和推理。
与 Anthropic 合作,构建全球最大 AI 计算集群
亚马逊与美国 AI 大模型独角兽 Anthropic 宣布合作,构建基于 Trainium2 UltraServers EC2 UltraCluster 的 Project Rainier,它将在数十万颗 Trainium2 芯片上扩展分布式模型训练,预计建成后将成为目前世界上最大的 AI 计算集群。
推出 Amazon EC2 Trn2 实例
亚马逊全面推出由 Trainium2 芯片驱动的 Amazon EC2 Trn2 实例,性价比比当前基于 GPU 的 EC2 实例高出 30%~40%,专门用于包括大语言模型和潜在扩散模型在内的高性能深度学习训练。
更新生成式 AI 平台 Bedrock
亚马逊针对其生成式 AI 平台 Bedrock 推出了三大新功能:自动推理检查(预防 AI 幻觉)、多 Agent 协同(加速任务完成)和模型蒸馏(提升模型速度和降低运行成本)。
Amazon Q Developer 升级
亚马逊 Q Developer 辅助编程平台升级,超越代码完成,帮助开发人员完成更广泛的软件生命周期任务,包括应用程序现代化、代码分析和单元测试生成。
与英伟达合作发布 P6 实例
亚马逊与英伟达合作 14 年后,宣布将发布采用新 Blackwell 架构的 P6 实例,计算速度比当前一代 GPU 快 5 倍,将于明年初推出。
扩展 Amazon S3 存储功能
亚马逊推出了 Amazon S3 Tables,使其成为首个完全托管支持 Apache Iceberg 的云对象存储,可实现更快分析,并以最简单的方式存储和管理任何规模的表数据。此外,亚马逊还推出了 Amazon S3 Metadata,可以近乎实时地自动生成可查询的目标元数据,简化数据发现和管理。
两大数据库跨区域强一致性支持
亚马逊 Aurora DSQL 和 Amazon DynamoDB global tables 推出跨区域强一致性功能,满足工作负载对低延迟、高可用性和数据同步的严苛需求。
推出全新数据中心组件
亚马逊推出面向高密度 AI 工作负载的全新数据中心组件,包括简化的电气和机械设计、创新的冷却和机架设计以及提高能源效率和可持续性的功能。
这些重磅公告展示了亚马逊在云计算和人工智能领域的持续创新和领导地位。通过提供先进的大模型、强大的 AI 芯片和服务器、全面的生成式 AI 平台以及可靠高效的基础设施,亚马逊将继续帮助客户推动创新和业务增长。
原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/12/05/21899.shtml