欧易

欧易(OKX)

国内用户最喜爱的合约交易所

火币

火币(HTX )

全球知名的比特币交易所

币安

币安(Binance)

全球用户最多的交易所

算力比肩数据中心,办公室就能用!NVIDIA推全球首台千万亿级工作组服务器

2022-09-02 23:27:27 8704

摘要:智东西(公众号:zhidxcom)作者 | 温淑编辑 | 漠影智东西12月3日消息,拥有超7900万用户的日本移动运营商NTT Docomo,正在开发图像识别解决方案等创新的AI驱动应用。这套AI解决方案的核心,正是NVIDIA推出的工作组...

智东西(公众号:zhidxcom)

作者 | 温淑

编辑 | 漠影

智东西12月3日消息,拥有超7900万用户的日本移动运营商NTT Docomo,正在开发图像识别解决方案等创新的AI驱动应用。这套AI解决方案的核心,正是NVIDIA推出的工作组服务器NVIDIA DGX Station。

继2017年发布的NVIDIA DGX Station V100后,在11月16日举行的2020年超级计算大会(SC20)上,NVIDIA发布最新工作组服务器NVIDIA DGX Station A100有望为全球AI和大数据科学应用提供更加强劲的AI性能支持。

作为NVIDIA最新一代DGX Station产品,NVIDIA DGX Station A100亦是全球唯一一台千万亿级工作组服务器。

DGX Station A100算力可达2.5 petaFLOPS、提供高达320GB内存、最多支持28个独立GPU实例运行并行任务

不仅如此,NVIDIA DGX Station A100无需专门的数据中心环境,可支持多用户、异地完成AI工作负载处理。

超高性能背后,NVIDIA是怎样做到的?NVIDIA DGX Station A100又将为AI和大数据科学应用带来怎样的改变?今天,智东西与你一起,走进NVIDIA DGX Station A100背后的黑科技。

NVIDIA DGX Station A100

一、可以塞在办公桌下的工作组服务器

目前,工业生产、金融、教育、科研等各个领域的数据科学团队对DLRM、GPT-3等复杂大数据模型的应用日益增多。

在这背后,全球数据信息总量已趋海量、各个行业领域智能化转型需求日益凸显,呼唤着AI基础设施提供更高的算力。

基于上述需求,支持多用户的数据中心服务器似乎成为数据科学团队的“标配”。但是,数据中心在满足数据科学团队对算力需求的同时,带来了新的问题。

首先,数据中心服务器对电力设置、冷却设施要求较高,在运行时噪音较大,因此,数据中心服务器通常需要部署在专门的环境中,难以满足数据科学团队多人分布式办公的需求。

据NVIDIA方面分享,针对上述痛点,NVIDIA推出的DGX Station工作组服务器,可提供高达2.5 petaFLOPS的算力、高达320GB的超大内存,在满足多用户使用需求的前提下,还能为AI基础设施部署“减负”,使用户在办公环境中处理大流量数据工作负载。

具体来说,相比数据中心服务器,DGX Station A100具备工作噪音小无需配备数据中心级电源无需专门的散热系统等优势。

我们了解到,DGX Station A100的最大耗电量为1.5kW,因此可被部署于世界各地的标准办公环境。

另外,DGX Station A100的运行温度在5~35°C之间,并采用一种全新定制的泵制冷剂两相冷却系统,操作更为简便。

泵制冷剂两相冷却系统是一个封闭的免维护系统,其无毒、不易燃、不冷凝。在单个回路中,制冷系统通过制冷剂的流动,同时冷却中央处理器,以及串联起来的四个GPU。

相比之下,上一代DGX Station采用水冷式设计,需要工作人员定期检查水位。

不仅如此,相比于OEM(代工生产)厂商提供的工作站产品,DGX Station A100建立在服务器级架构上,该架构采用与服务器级产品相同的组件。在能支持大型数据科学团队工作的前提下,DGX Station A100不需要数据中心托管系统。

二、四个A100 GPU完全互连,最多提供28个独立GPU实例

基于上述特点,NVIDIA DGX Station系统可满足工业、科研、金融、教育等各个领域的大数据科学团队,以多用户、异地模式处理AI工作负载。

以德国人工智能研究中心为例,该研究中心正借助DGX Station构建能够应对重大社会和行业挑战的AI模型,其中包括能够帮助紧急服务快速响应自然灾害的计算机视觉系统。

在DGX Station A100提供的超强性能背后,NVIDIA为其赋予了怎样的设计巧思?我们了解到,DGX Station A100搭载NVIDIA A100 GPU,并采用NVIDIA NVLink等先进技术,通过软硬件协同为大数据级AI应用赋能。

1、配备四组A100 40GB GPUA100 80GB GPU

NVIDIA DGX Station A100配备四组NVIDIA A100 40 GB GPU或A100 80GB GPU,可提供高达320GB的超大内存。

A100 80GB GPU与NVIDIA DGX Station A100同日发布,在延续A100 40GB GPU超强计算性能的同时,内存容量实现翻倍。

此外,NVIDIA A100 80GB GPU内存带宽达到2TB/s,相比A100 40GB GPU提升约29%。

NVIDIA A100 80GB GPU

2、通过NVIDIA NVLink技术使四个A100 GPU互连

相较于上一代互连技术,可使GPU之间通信带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600GB。

通过NVIDIA NVLink技术,NVIDIA DGX Station A100可实现4个NVIDIA A100 40GB或A100 80GB GPU完全互连。

3、支持NVIDIA 多实例GPUMIG)技术

MIG技术可将一个A100 GPU分割成多达7个独立的GPU实例,从而为不同大小的任务提供不同程度的计算,提高利用率和投资回报。

DGX Station A100是目前唯一支持MIG技术的工作组服务器。单一DGX Station A100最多可提供28个独立GPU实例以运行并行任务,并在不影响系统性能的前提下支持多用户

三、算力高达2.5 petaFLOPS,为复杂AI推理模型提速四倍

与NVIDIA于2017年推出的第一代NVIDIA Station产品对比,NVIDIA Station A100的算力提升了四倍

具体来说,NVIDIA Station V100能够提供500 teraFLOPS的AI性能,相比之下,NVIDIA Station A100能提供高达2.5 petaFLOPSAI性能

基于2.5 petaFLOPS的强劲性能,在实际应用中,相比NVIDIA DGX Station A100,DGX Station A100能够助力复杂AI模型提速。

根据NVIDIA官方数据,针对BERT Large推理等复杂的对话式AI模型,DGX Station A100比上一代DGX Station提速约4.35;对于BERT Large AI训练,DGX Station A100比上一代产品提速约2.75;对于GROMACS科研应用(一套分子动力学模拟程序包,主要用来模拟研究蛋白质、脂质、核酸等生物分子的性质),DGX Station A100比上一代产品提速约1.85

我们了解到,目前,DGX Station V100的客户中,包含美国排名前列的七家医院、全球排名前六的汽车制造企业、美国排名前六的政府机构,以及十家全球领先的航空和国防企业。

NVIDIA副总裁兼DGX系统总经理Charlie Boyle认为,DGX Station A100将进一步为数据科学和AI研究团队简化研究过程。

“数据科学和AI研究团队可以使用与NVIDIA DGX A100系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”他说。

结语:为全球AI及大数据应用减负

互联网应用中,各类数据以指数级增长,日益对AI算力提出更高需求。特别是生物医药、材料分析等特定领域中的AI应用,更呼唤在内存、算力等各个方面进行提升。

在这一背景下,数据中心服务器成为金融、工业生产、教育、科研应用等各个领域的硬件标配。但同时,数据中心服务器对工作环境电力、温度、部署成本等方面的要求,成为大数据科学团队进行分布式工作的一道“拦路虎”。

这一背景下,NVIDIA于11月推出的工作组服务器NVIDIA DGX Station A100在满足各领域AI及大数据应用对算力、内存需求的同时,将AI基础设施部署及应用的门槛降低。

12月7日,智东西公开课邀来NVIDIA技术专家,对NVIDIA DGX Station A100进行全面解读,敬请关注。

今年12月15~19日,NVIDIA将举办GTC中国线上大会,解读NVIDIA在AI技术方面的诸多创新及AI赋能各行各业。目前大会已开放免费注册,观看主题演讲还将有机会赢得 GeForce RTX 3070 显卡!所有福利仅限注册用户!扫描下方海报二维码免费注册报名。

版权声明:本站所有文章皆是来自互联网,如内容侵权可以联系我们( 微信:bisheco )删除!
友情链接
币圈社群欧易官网