详情

AI服务器与普通的GPU服务器相比有哪些区别?

来源:安防展览网2022/7/2 13:38:57673
导读:
  AI服务器是采用异构形式的服务器,在异构方式上可以根据应用的范围采用不同的组合方式,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。与普通的服务器相比较,在内存、存储、网络方面没有什么差别,主要在是大数据及云计算、人工智能等方面需要更大的内外存,满足各种数据的收集与整理。
 

  AI服务器与普通的GPU服务器虽然组成上类似,核心计算部件都是GPU加速卡,但是不可等同,主要有以下几点区别: 
  1、卡的数量不一致:普通的GPU服务器一般是单卡或者双卡,AI服务器需要承担大量的计算,一般配置四块GPU卡以上,甚至要搭建AI服务器集群。 
2、*设计:AI服务器由于有了多个GPU卡,需要针对性的对于系统结构、散热、拓扑等做专门的设计,才能满足AI服务器稳定运行的要求。 
  3、P2P通讯:普通GPU服务器要求的是单卡性能,AI训练中GPU卡间需要大量的参数通信,模型越复杂,通信量越大,所以AI服务器除了要求单卡性能外,还要求多卡间的通讯性能,采用PCI3.0协议通信的大P2P带宽达到32GB/s,采用SXM2协议通信的大P2P带宽达到50GB/s,采用SXM3协议通信的大P2P带宽达到300GB/s。 
  4、技术:AI服务器有很多更的技术,包括Purley平台更大内存带宽,NVlink提供更大的互联带宽,TensorCore提供更强的AI计算力。

版权与免责声明:凡本网注明“来源:全球供应网”的所有作品,均为浙江兴旺宝明通网络有限公司-全球供应网合法拥有版权或有权使用的作品,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:全球供应网”。违反上述声明者,本网将追究其相关法律责任。 本网转载并注明自其它来源(非全球供应网)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

展开全部