“数据中心”聚焦液冷 | 信通院携手业界为液冷“升温”

2023-07-25 21:05:15来源:通信世界

今天,很高兴为大家分享来自通信世界的聚焦液冷 | 信通院携手业界为液冷“升温”,如果您对聚焦液冷 | 信通院携手业界为液冷“升温”感兴趣,请往下看。

随着我国数字经济蓬勃发展,算力赋能场景日新月异。伴随着ChatGPT迅速“破圈”,AI驱动算力呈指数级增长,使得数据资源的计算、存储和应用需求快速扩张,数据中心等算力基础设施的高密度、高算力发展已成必然趋势。与此同时,在“双碳”战略驱动下,数据中心也面临着高能效的发展要求,利用风冷散热的传统方式已无法满足数据中心业务增长与节能降碳的双重需求,先进的液冷技术为数据中心带来了全新的曙光。

数据中心液冷技术主要分为冷板式和浸没式。其中,采用冷板式液冷技术,服务器等发热器件无需直接接触冷却液,对数据中心内的设备改动较小,可操作性更强、成熟度更高、应用较广泛。浸没式液冷技术使用冷却液作为热传输媒介,借助液体优越的导热率和比热容特性,可以更快地传导以及更有效地吸收热量,支持更高的部署密度,节能效果也更佳。近几年,中国信息通信研究院(以下简称“中国信通院”)瞄准政策方向与产业需求,联合产业各方加快在液冷领域的技术创新、试验验证和标准研究,持续推动液冷服务器、冷却液、液冷基础设施等更新迭代,优化液冷技术解决方案,推进产业生态成熟,以期更大规模地部署应用液冷技术,切实缓解数据中心的高能耗压力,助力我国算力产业走向绿色低碳发展之路。

液冷需求为何越“烧”越旺

一方面,智能计算中心、边缘数据中心等新型算力基础设施兴起,加快了算力基础设施高密度部署的步伐,发展需求促使制冷技术革新。得益于算力应用场景的日渐丰富,各类计算加速芯片不断问世,多元化算力价值进一步显现。同时这也引起了数据中心功率密度不断升高,尤其是芯片制程提升趋缓导致了芯片的功耗升高。通用CPU的TDP(热设计功耗)持续增加,已从最初的100W左右逐步增加到400W,用于AI训练的GPU单机可高达10kW,高密度部署下的散热问题成为数据中心算力升级路上的“绊脚石”。液冷技术的出现打破了传统风冷式服务器冷却模式,可实现服务器级乃至芯片级高效散热,为数据中心CPU、GPU超频工作提供散热支撑,有效解决数据处理模型越来越复杂、数据处理量“爆炸性”增长等业务难题,为智能计算中心、边缘数据中心等新型数据中心提供了高效的散热解决方案。

另一方面,在“双碳”“东数西算”等国家战略驱动下,行业愈发重视算力基础设施的高质量发展。国家“双碳”战略对数据中心能源效率提出了新要求,各级主管部门越来越重视数据中心的能耗管理,不断出台相关政策引导数据中心节能发展。“东数西算”工程致力于提升国家整体算力水平,在优化数据中心投资建设布局的同时,也强调了能效和可再生能源的使用要求。对此,产业界积极响应国家号召,大力优化算力基础设施用能结构,寻求新的技术路径以加强绿色设计,液冷正是其中一项行之有效的技术方案。依托全新的液冷散热系统及配套的在线监测系统,在保证冷却液稳定工作的基础上,部分数据中心可实现PUE低于1.1。

此外,越来越多投资建设主体研判未来业务演进趋势,克服改造难度和运营成本问题,逐渐部署液冷。早在2019年,工业和信息化部等三部门联合发布的《关于加强绿色数据中心建设的指导意见》,就对能源资源利用效率较低的在用老旧数据中心的改造提出了明确要求。各地主管部门积极响应号召,如北京市经济和信息化局印发的《北京市数据中心统筹发展实施方案(2021—2023年)》提出,“按照‘以旧换新、增减替代’原则推动存量数据中心的改造升级”;上海市经济信息化委等部门发布的《关于推进本市数据中心健康有序发展的实施意见》提出,“充分发挥政府引导和市场机制调节作用,推动小散老旧数据中心升级改造,促进存量数据中心结构优化”。然而要达到改造后能效提升的目标,数据中心运营方不仅要更新或淘汰低效的老旧设备,还要对机房内制冷、供电等设施及系统进行全面升级,这往往需要消耗大量人力、物力,同时还存在业务中断的风险。因此,部分大型数据中心投资建设主体在新建数据中心时逐渐倾向于将液冷作为首选方案。

行业痛点仍然存在,众人拾柴火焰高

为满足不断提升的计算需求、缓解日益突出的能耗问题,数据中心将目光转向散热能力出色的液冷,而与之相随的诸多挑战也值得业界关注。

一是液冷产业链协同困难。液冷作为高新技术,覆盖多学科、多领域,产业链上中下游涉及企业广泛,各企业的技术路径多种多样、新兴产品千差万别,因此,液冷进行标准化适配与部署的难度很大,加之缺乏统一的技术行业标准和规范引导,难以实现规模化推广应用。

二是液冷系统可靠性仍有待提升。液冷系统中的管路容易出现腐蚀、沉积、漏液或堵塞等风险,由于缺乏充分的规模部署验证,目前液冷数据中心的可靠性问题存在一定争议,尤其是浸没式液冷,冷却材料的兼容性与可靠性对系统的稳定性至关重要。

三是液冷部署成本较高。相较于风冷,不管是数据中心直接部署液冷,还是进行液冷化改造,初期投资以及全生命周期成本均较高。此外,液冷的运维难度比较大,比如浸没式液冷需要使用吊臂插拔,液体容易挥发,使得整体运维成本提升。

中国信通院推动产业界协同创新

面向液冷领域,中国信通院近年来取得了多项代表性成果。自2017年依托中国通信标准化协会开放数据中心标准推进委员会(ODCC)成立“冰河”液冷项目组以来,中国信通院联合产业链上下游开展了液冷方面的关键技术研究、标准制定、联合测试实验等多项工作。具体包括:2018年发布第一版《液冷技术与应用发展白皮书》;2019年出版国内首本液冷科普书籍《液冷革命》;2019年牵头发布6项液冷系列团体标准,打破了我国数据中心领域液冷标准的空白;2021年联合UDP、ITU在全球联合发布题为《Innovative Data Centre Cooling Technologies in China-Liquid Cooling Solution》的液冷研究报告;2022年上述6项液冷系列团体标准正式升级为行业标准,继续规范和引导产业有序发展。

随着研究的不断深入,中国信通院持续加强在液冷细分技术领域的研究。聚焦冷却液的规范化研制与使用,中国信通院联合40余家单位共同编制《浸没式冷却液可靠性规范》,并于2022年在ODCC峰会上正式发布1.0版本,目前该规范仍在持续迭代中。立足浸没式液冷产业发展,2021年在ODCC冬季全会上,中国信通院云大所与阿里、OPPO联合设立“浸没液冷智算产业发展论坛”,在由论坛主办的“2023年浸没液冷智算产业发展高峰论坛(衢州)”上,发布了涵盖浸没式液冷数据中心建设、运营、热回收等多个环节的9项研究成果。面向冷板式液冷推广应用,在2022年ODCC峰会上,中国信通院联合超聚变发布《冷板式液冷服务器可靠性白皮书》,目前正联合各单位开展《冷板式液冷整机柜服务器技术要求和测试方法》行业标准以及《数据中心冷板式液冷发展研究报告》蓝皮书的编写工作。

接下来,中国信通院将继续依托ODCC这一领先的行业平台,联合业界组织运营“冰河”项目,紧跟市场需求、紧抓产业痛点,继续在液冷领域开展技术创新与标准研究,助力我国液冷产业早日实现腾飞。

伴随着新一代绿色低碳数据中心的规划建设,液冷作为一项革命性技术,正逐步走向规模化。针对本文提到的挑战,未来行业更应以需求为牵引,吸引更多企业参与到产业链的建设中,加强研发投入,形成规范标准共识,从而降低液冷的整体建设部署成本,助力液冷技术实现经济效益、社会效益与环境效益的最大化,推进整个行业良性发展。

*本文刊载于《通信世界》

总第924期 2023年7月25日 第14期

原文标题:《中国信通院:众人拾柴火焰高 携手业界为液冷“升温”》

好了,关于聚焦液冷 | 信通院携手业界为液冷“升温”就讲到这。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章