阿里数据中心散热玩出花样 将服务器浸在水里
相比传统的风冷,“麒麟”所采用的浸没液冷解决方案是一种全新的变革。为什么这么说呢?一是“麒麟”节能,可大幅降低数据中心的冷却能耗;二是绿色环保,冷却液吸收元器件的热量后,再沸腾气化,气体上升遇到冷凝板后液化落回主机柜中循环利用,热量在几乎零功耗的情况下被冷凝管传递出去,与此同时高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0。
4月26日,阿里云在云栖大会·南京峰会上展示了黑科技——全浸没“凉得快”服务器麒麟,这是一种数据中心散热解决方案。
阿里云的“麒麟”采用了浸没式液冷散热的服务器部署方案,利用绝缘冷却液取代传统风冷。
由于无需风扇、空调等制冷设备,可在任何地方部署,因此也极大地降低了冷却能耗和空间消耗。这种浸没液冷服务器集群技术,可将数据中心能源使用效率(PUE)大幅降低到接近于理论极限值1.0(能源使用效率),达到世界领先水平。
阿里云为什么要推麒麟液冷?
随着“大数据时代”的到来,需要处理的数据逐年递增,2015年可产生8.5ZB数据,到 2020年将产生40ZB数据,机器产出的数据占40%以上,这些都需要IDC(互联网数据中心)来承载。随着全球互联网的发展,对硬件性能的要求越来越高,IDC的能耗也在逐年增加,CPU的功耗从2004年的35W增加到如今的240W,部件密度也在不断增加,从8DIMMs到24DIMMs,未来功耗和热密度将会快速增长,能耗和冷却成本也大幅增加。传统的风冷显得越来越力不从心,在总功率达10几千瓦时就碰到了瓶颈,效率很低。
在摩尔定律逐渐走向极限的今天,计算能力将变成稀缺资源,阿里巴巴希望通过重构数据中心,用突破式的创新应对井喷式的数据时代,为未来20年提供处理海量数据的计算能力。阿里巴巴选择了以散热与制冷为突破口的浸没液冷作为“变道超车”的赛道。
相比传统的风冷,“麒麟”所采用的浸没液冷解决方案是一种全新的变革。为什么这么说呢?一是“麒麟”节能,可大幅降低数据中心的冷却能耗;二是绿色环保,冷却液吸收元器件的热量后,再沸腾气化,气体上升遇到冷凝板后液化落回主机柜中循环利用,热量在几乎零功耗的情况下被冷凝管传递出去,与此同时高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0。
尤其是“麒麟”所使用的绝缘冷却液,它的特殊之处在于:这种材料完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。而得益于浸没式液冷高效的散热效率,“麒麟”无需空调等大型制冷设备,可以在任何地方部署,节省空间75%以上。“麒麟”在单位体积内的计算能力比过去提升了10倍。
可以说,“麒麟”的出现将填补未来20年的计算空缺,接近1.0的PUE可以将有限的电力发挥出最大的计算能力。而“麒麟”零噪音、零污染、绿色节能的特点也意味着它将可以保证我们在享受强大的计算能力的同时为我们赖以生存的地球极大地减轻负担。
据悉,“麒麟”将率先应用于阿里云数据中心,通过阿里云对外服务实现技术的普惠应用。
液冷外,在数据中心散热上阿里云还玩出了哪些花样?
除了“麒麟”所采用的液冷技术之外,在数据中心散热上,阿里云还采用了湖水冷却和自然风冷等多种冷却技术。
典型的例子就是阿里云位于浙江千岛湖的数据中心使用的湖水冷却,以及阿里云张北数据中心自然风冷。
利用湖水散热?这如何做到的呢?我们看看流程:深层湖水通过完全密闭的管道流经数据中心,帮助服务器降温,再流经 2.5 公里的青溪新城中轴溪,不仅能作为城市景观呈现,自然冷却后的湖水最终还洁净地流回到千岛湖。
为什么选择湖水冷却方案。主要是千岛湖地区年平均气温 17 度,其常年恒定的深层湖水水温,足以让数据中心 90%的时间都不依赖湖水之外的制冷能源,制冷能耗节省超过 8 成。反映到账面的数据显示,数据中心利用深层湖水制冷并采用阿里巴巴定制硬件,设计年平均 PUE(能源效率指标)低于 1.3,最低时 PUE1.17,比普通数据中心全年节电约数千万度,减少碳排放量一万多吨标煤,也是目前国内亚热带最节能的数据中心之一。
张北数据中心则利用的是张北气温低、空气干净的优势,大面积采用新风自然冷和水侧自然冷技术,尽可能用自然冷源为服务器降温。
据悉,全年大约只有15天的时间需要开启传统压缩机空调,仅制冷能耗就可以降低59%。阿里张北数据中心的设计年均PUE(能源使用效率)仅为1.25,最低可达1.13。
结束语:
看完之后,是不是觉得阿里云很牛X,在数据中心散热上,都能这么玩,还玩出了这么多花样。
发表回复