
近日,Nvidia对其机器学习产品进行了升级,推出一款新的数据中心芯片和软件,旨在加速这些服务从而实现新的服务,例如人与机器之间更自然的语言交互。
在东京举行的Nvidia GPU技术大会上,Nvidia首席执行官黄仁勋及其高管宣布推出了这些新产品。首先,他发布了名为Tesla T4的小型低功耗芯片,该芯片采用所谓的Turing Tensor Core设计。作为当前特斯拉P4的下一代,T4拥有2560个核心,每秒可运行高达260万亿次操作。
Nvidia进行产品升级(图片来自Nvidia)
黄仁勋还宣布对TensorRT软件进行更新,该软件可让处理速度比CPU快40倍,它包括一个TensorRT 5推理优化器和Tensor RT推理服务器以及一个软件“容器”中的微服务,可以运行主流的人工智能软件框架,并与容器编排器Kubernetes和Docker集成。
TensorRT Hyperscale Inference Platform平台专注于推理,基于得到的新数据来推断任务以及执行任务。与训练模型不同,推理通常要使用内部有标准CPU的服务器。
Nvidia副总裁、加速业务总经理Ian Buck解释说,目前数据中心内有用于各种任务的软件,如图像识别、搜索和自然语言处理,导致效率不高。Nvidia新推出的推理平台,让应用可以使用相同的架构和软件加速应用。例如使用GPU进行推理可帮助微软的Bing搜索引擎将延迟提高60倍。
此外,Nvidia还宣布推出了第一个用于自主机器的AI计算平台。具体来说,这是一款新的AGX嵌入式AI HPC系列服务器,该系列产品的部分包括用于数据中心的DGX系列和用于所谓的超大规模数据中心。另一个新产品是Jetson AGX Xavier,这是第一台用于机器人等应用的AI计算机。
本文属于原创文章,如若转载,请注明来源:Nvidia推出用于AI驱动服务的高速数据中心平台//smartcity.zol.com.cn/698/6981229.html