基於大规模语言模型(LLM)的生成式AI,不仅考验处理器的运算效能,也对高频宽记忆体(HBM)的容量跟频宽带来更高的要求。为抢占生成式AI所带来的巨大商机,美光(Micron)近日发表其第二代HBM 3产品,藉由堆叠8层与12层DRAM,搭配更小的TSV间距,美光第二代HBM...