从幕后到台前,HBM为何成为生成式AI时代的“新宠儿”
时间:2025-11-26 23:30:27 出处:物联网阅读(143)
人工智能进入生成式AI时代 ,新宠儿各种大模型应用层出不穷,从幕成式对算力提出了更高的后到何成要求 ,推动着AI服务器与高端GPU产品需求的台前不断上涨 。与此同时 ,为为生拥有更高性能的时代HBM存储产品也进入了人们的视野,市场规模不断增长。新宠儿
HBM ,从幕成式即高带宽内存(High Bandwidth Memory) ,后到何成是台前一款新型的内存芯片,通过使用先进的云计算为为生封装方法(如 TSV 硅通孔技术)垂直堆叠多个DRAM,并与GPU/CPU封装在一起 ,时代用以提供更大的新宠儿存储容量和带宽 ,满足数据快速读写的从幕成式需求。简单来看,后到何成HBM更像是高层楼房设计 ,而传统的内存则更像是平房设计。当然 ,由于结构不同 ,HBM的生产制造工艺更难。源码下载

随着AI技术的发展 ,GPU的功能越来越强,需要更加快速地从内存中访问数据 ,以此来缩短应用处理的时间 。
众所周知 ,大语言模型 (LLM)需要重复访问数十亿甚至数万亿个参数 ,如此庞大且频繁的数据处理,往往需要数小时甚至数天的时间,这显然无法满足要求。于是高防服务器