文章来源:08ai导航网发布时间:2025-08-13 11:58:40
高端Ai服务器定义,满足以下2个条件:
条件1.卡间互联
条件2.显存HBM
以H100为例子,不同的设备比如H100或者H20 为啥差别很大,主要是因为配置不同,成本差别10~20w,所以有差别!
选型应该重点看:(数值越大性能越强)
1.cpu:是85xx 还是84xx,最差的就是83xx 设置还有65xx,64xx等等
2.内存:内存是DDR5 还是DDR4,DDR5又分6400和5600还是4800 价格又不同
3.网卡:满配应该是8+2+1 11张网卡,8张CX7+2张CX6+1张BF3,网卡最新的是CX8 依次是CX8,CX7,CX6,CX5依次降低
同样的价格下,配置越高,性价比越高,甲方会觉得自己赚到啦!
当然根据需求选择自己合适的型号,不一定要买满配,最委屈的是,很多人花了满配的价格,买了个乞丐版配置,还以为自己占便宜啦.
关于卡间互联:卡间互联是对PCIE协议的补充,为啥会有卡间互联,pcie是个联盟参与各方利益要达成一致,才能成为标准,因此标准升级很慢。
各家AI芯片忍不了,各家就推出了自己的卡间互联协议对pcie做补充,比如nvlink,xlink,metalink,mlulink,反正每个高端卡都有这个协议,这个标准相互不兼容。现在又出了UALink 200G 1.0 规范发布,支持 1024 个加速器互联。但是UALink联盟参与方都是国外的,不让中国参与!!
卡间互联对于高端卡好比喻男人有没有生育能力,没有卡间互联的也叫高端AI卡,没有生育能力的男人也叫男人,但是毕竟都是“隐疾”。
HBM是高端AI芯片的标配,这里指的是最新一代比如HBM3E肯定比GDDR7高端,但是HBM2e其实比不上GDDR7。这好比10年前的奥迪A6,今年的比亚迪旗舰一样。
目前国产AI卡HBM基本停留在三星的HBM2e基本上打不过GDDR7系列。
关于AI模组形态是OAM还是PCIE其实区别不大,并不是OAM就一定比PCIE形态高贵这个说法,只是大家为了区别价格不同,往往PCIE性价比更高,pcie和oam都可以支持卡件互联。
相关攻略 更多
最新资讯 更多
英伟达GPU价格,配置映射关系
更新时间:2025-08-13
天气预报精准到每条街!这家新型机构携手高校用AI驱动科研范式变革
更新时间:2025-08-13
用AI做“跳看”,爱奇艺要让用户掌握主动权
更新时间:2025-08-13
DeepMind果蝇登Nature,强化学习再立功!AI模拟飞行,逼真到腿毛颤抖
更新时间:2025-08-13
亲临GoogleCloud大会现场,229个新发布带你看懂GoogleAI布局!
更新时间:2025-08-13
免费用!OpenAI发布「轻量版」DeepResearch,o4-mini加持
更新时间:2025-08-13
忘掉MCP吧!纳米Agent给出了版本答案
更新时间:2025-08-13
马斯克的xAI超级计算机再惹环保争议:15台燃气轮机被指排放超标
更新时间:2025-08-13
PerplexityAI联合摩托罗拉推出AI手机,称已站在技术变革边缘
更新时间:2025-08-13
国家知识产权局:中国成为全球人工智能专利最大拥有国,全球占比达60%
更新时间:2025-08-13