如今AI行业可谓蓬勃发展,高通高厂商们也愿意花费大价钱去购买AI训练以及推理设备,推出可以说现在的加速WhatsApp%E3%80%90+86%2015855158769%E3%80%91hoist%20dumbbell%20rack%203%20tierAI设备已经处于严重供不应求的状态,完全就是卡最摇钱树和印钞机,因此越来越多的存主厂商投入到AI训练以及推理芯片的研发中,目前著名的打模移动处理器制造商高通就宣布了两款为AI特别打造的加速卡,主要用于AI推理等领域,型推具备超大规模的高通高内存以及带宽。

据悉高通推出了两款加速卡叫做AI200及AI250,推出WhatsApp%E3%80%90+86%2015855158769%E3%80%91hoist%20dumbbell%20rack%203%20tier基于高通自家的加速Hexagon NPU打造,其架构与手机版的卡最NPU相差不大,不过高通并没有表示这两款加速卡的存主具体规格是多少。据悉考虑到这两款加速卡主要是打模为AI推理打造,因此需要巨大的型推内存以及带宽,高通称它们可以最高搭配768GB的高通高LPDDR系列内存,除此之外高通也针对内存通信进行了特别的优化,大幅提升了内存的能效,从而降低在满载情况下加速卡的功率。

相比较AI200,AI250可以提供10倍的内存带宽,这对于重度AI推理企业来说尤其重要,此外高通还准备了液冷散热系统以及160KW机柜来满足加速卡的满载运行。据悉高通希望AI200计算卡在2026年和大家见面,至于2027年则将推出AI250加速卡。目前已经有客户选用了高通计算卡,在沙特开始建造全新的数据中心,以满足AI推理的需求。
可以说随着越来越多的厂商进入到AI行业,AI加速卡的供应将会越来越多,预计整个行业的单位推理成本也将有所下降,当然AI也将给这些企业带来巨大的营收与利润。