
9 月 23 日,微软通过博文宣布,成功攻克 AI 芯片散热难题,研发出芯内微流体冷却系统。该系统散热效率远超传统技术,达到目前最先进的冷板散热技术三倍,为数据中心芯片降温提供新路径。
传统冷板散热需将冷板贴在芯片表面,依靠板内冷液循环吸热,但多层隔温材料会限制散热能力。而微软新研发的芯内微流体冷却系统,直接移除这些 “隔热层”,让冷却液与硅芯片发热区直接接触,再结合 AI 技术精准引导冷却流向,从源头高效降温。
技术优势显著:降能耗提效率
研发团队借助 AI 分析芯片热分布特点,让冷却液精准流向热点区域。实验数据显示,在不同负载条件下,该技术能使 GPU 芯片最高温升降低 65%,还能明显优化数据中心能效比(PUE)。这不仅能减少冷却环节能耗,缓解电网压力,还能提升数据中心运营的可持续性。
微软还模拟运行 Teams 会议的服务器环境进行测试,证实该技术在高负载、突发任务场景中,仍能让芯片保持稳定温度。这意味着数据中心无需担心芯片损坏,可对芯片进行超频,提升计算速度与可靠性,同时避免为应对峰值需求增加大量闲置硬件,有效降低成本。
普及仍面临工程挑战
不过,该技术要实现普及,还需突破多项工程难题。其中最大挑战是构建微通道 —— 既要保证冷却液流量,又不能削弱硅芯片结构强度;此外,防漏封装、冷却液配方优化以及制造工艺集成等问题,也需进一步解决。
相关资讯

