网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于ob欧宝

公司概况 核心优势 核心团队 发展历程

联系ob

官方微信 官方微博
主页 > 新闻中心

ob欧宝亚马逊发力捍卫云地位升级自研 AI 芯片发布聊天机器人 Q抢先用英伟达新一代超级芯片

发布时间:2023-12-07 01:13浏览次数: 来源于:网络

  ob欧宝亚马逊发力捍卫在云计算领域的领先地位,一边升级自研的云芯片、推出亚马逊版的 GPT ——人工智能(AI)聊天机器人,一边深化同英伟达的合作,推出基于英伟达芯片的新服务、和英伟达共同研发超级计算机。

  AWS 的副总裁 Dave Brown 表示,通过将自研芯片的设计重点放在对客户重要的实际工作负载上,AWS 能为他们提供最先进的云基础设施。此次推出的 Graviton4 是五年内的第四代芯片产品,随着人们对生成式 AI 兴趣的高涨,第二代 AI 芯片 Trainium2 将帮助客户以更低的成本和更高的能效更快地训练自己的机器学习模型。

  美东时间 11 月 28 日周二,亚马逊旗下云计算业务 AWS 宣布,推出新一代的 AWS 自研芯片。其中,通用芯片 Graviton4 的计算性能较前代 Graviton3 提高多达 30%,内核增加 50%,内存带宽提升 75%,从而在亚马逊云服务器托管服务 Amazon Elastic Compute Cloud(EC2)上提供最高性价比和能源利用效果。

  Graviton4 还通过对所有高速物理硬件接口进行完全加密提高安全性。AWS 称,Graviton4 将应用于内存优化的 Amazon EC2 R8g 实例,让客户能改进高性能数据库、内存缓存和大数据分析工作负载的执行ob欧宝。R8g 实例提供更大的实例大小,比前代 R7g 实例的 vCPU 高最多三倍的,内存高三倍。

  AWS 的另一款新品——新一代 AI 芯片 Trainium2 速度比前代 Trainium1 快四倍,将能在 EC2 UltraCluster 中部署多达 10 万个芯片,让用户能在很短的时间内训练数以万亿参数的基础模型(PM)和大语言模型 (LLM),同时能源利用率较前代提高多达两倍。

  除了自研芯片,AWS 周二还在年度大会 re:Invent 期间同英伟达共同宣布,扩大战略合作,提供最先进的基础设施ob欧宝、软件和服务,助力客户的生成式 AI 创新。

  英伟达和 AWS 将共同在 AWS 上托管英伟达的 AI 训练即服务 DGX Cloud,它将是第一个采用 GH200 NVL32 的 DGX 云,能为开发人员提供单个实例中最大的共享内存。AWS 的 DGX 云将提高尖端生成式 AI 和超过 1 万亿参数的大语言模型的训练。

  英伟达和 AWS 正在共同研发名为 Ceiba 的项目,设计世界上速度最快的 GPU 驱动 AI 超级计算机,这是一个采用 GH200 NVL32 和 Amazon EFA 互连的大规模系统。它是搭载 1.6384 万块 GH200 超级芯片的超级计算机 ,AI 处理能力达 65 exaflops。英伟达将用它推动下一波生成式 AI 创新。

  src=企业客户机器人亚马逊 Q 预览版上线 帮助在 AWS 上开发 App

  除了芯片和云服务,AWS 还推出了自己的 AI 聊天机器人预览版,名为亚马逊 Q。它是生成式 AI 技术支持的新型数字助手,可根据企业客户的业务进行工作,帮助企业客户搜索信息、编写代码和审查业务指标。

  Q 接受了 AWS 内部有关代码和文档的部分培训,可供 AWS 云的开发者使用ob欧宝。

  开发者可以用 Q 在 AWS 上创建 App、研究最佳实践、改正错误、获得为 App 编写新功能的帮助。用户可以通过对话式的问答功能与 Q 进行交互,学习新知识、研究最佳实践以及了解如何在 AWS 上构建 App,无需将注意力从 AWS 控制台上移开。

  Q 还将被添加到亚马逊的企业智能软件、呼叫中心工作人员和物流管理的程序。 AWS 表示,客户可以根据公司的数据或个人资料,对 Q 进行定制。

下一篇:ob欧宝亚马逊云科技的AI新版图:升级自研CPU和AI芯片强化与英伟达合作
上一篇:ob欧宝配备超16000个GH200超级芯片 亚马逊云科技与英伟达共推云AI超级计算机

咨询我们

输入您的疑问及需求发送邮箱给我们