说三道四技术文摘-感悟人生的经典句子
说三道四 > 文档快照

“热水冷却”技术将主导美国国防部数据中心改造

HTML文档下载 WORD文档下载 PDF文档下载
美国国防部将使用Asetek公司的Rack CDU Liquid Cooling(热水冷却系统)冷却其一个数据中心的服务器。其技术核心是在不使用冷水机组的情况下,通过外部空气实现免费冷却进而实现节能、增加服务器密度和能源复用。由于成本不高,此举极可能开创在美国国防部高密度服务器中大规模使用热水冷却的先河。

历届国际超级计算大会(Supercomputing Conference,SC大会)都是HPC高手云集,新技术频现。今年,也没让我们失望。日前,SC2012大会之后,Datacenter knowledge创始人及主编Rich Miller发表了一篇文章:《美国国防部将用热水冷却数据中心服务器》。其内容为:美国国防部即将使用热水冷却其一个数据中心的服务器,用的将是Asetek公司的Rack CDU Liquid Cooling系统。此举极可能开创在美国国防部大规模在高密度服务器中使用液体冷却的先河,其相关效率和成本统计将会被仔细追踪和记录。

图:服务器上使用了Asetek的Rack CDU Liquid Cooling 系统,即将实施在美国国防部数据中心,可以看到管道系统连接着冷却分布单元。

Asetek是专业节能液体冷却系统设计企业,业内一体式水冷散热器几乎都是出于其笔下。其创新理念总是使得安装极为简便,水泵、热排、管道等设计往往一体内实现。业内,不只是高端笔记本会采用Asetek相关方案,就连英特尔也曾将一个密封的液体冷却系统捆绑在新一代的酷睿i7-3000系列(的Sandy Bridge-E)的CPU上。Asetek被选为这个价值200万的改造国防部数据中心项目的合作伙伴,要归功于其Rack CDU( Rack Coolant Distribution Unit)技术,可以直接通过流过芯片的水来实现高效冷却,在不使用传统计算机机房空调或冷水机组的的情况下(也就是业内称之为“free cooling”的情况),将热量从数据中心的高温服务器带走,实现节能和能源复用的目标。

事实上,与风冷和普遍的水冷方式不同,热水冷却技术被称为(Hot Water Cooling Technology),这个技术并不是今年才出现的。“热水冷却”的核心思想是让核心高温部件实现冷却(以CPU、GPU和内存为主),其他部件正常散热,进而实现服务器及数据中心在高温下也能正常工作的目标。这样做的好处非常明显:节省整体冷却成本,实现了能效提升和资源的复用。(IBM于纽约州波基普西的研究实验室曾进行过测试,IBM设计的芯片在高达85摄氏度的环境下也可以正常工作。只要将设备控制在这个温度以下,就能实现顺畅运行)。但是,“热水冷却”需要严格的设计和环境控制,并尽可能将冷却效能集中在热部件周围,并需要辅助设备来冷却水或其他液体。对于之前的“热水冷却”项目大多也使用的是这一方案,比如以下这三个项目:

1.IBM SuperMUC系统

最新发布的世界500强HCP排行榜中的第四名,位于德国Leibniz Supercomputing Centre (LRZ)的IBM SuperMUC系统。其采用的是IBM System x iDataPlex Direct Water Cooled dx360 M4 服务器,其热水冷却技术通过冷却水(最高113华氏度,即45度)直接作用于处理器和内存模块。通过特定的冷却管道将水传输到较热的组件,实现直接冷却后,再传回到系统中,通过新鲜空气来冷却水。SuperMUC允许进气温度增加。相关人士表示:“通过‘free-cooling’,冷却水的温度很容易达到40度,实际上,德国一般室外温度不超过35度。而出口水的温度自然很高(70度),很容易可以在建筑物内实现能源的复用”。

2.eBay Mercury项目

在eBay Mercury项目中, eBay全球基础服务部主管Dean Nelson寻求一种设计,使得数据中心在最严酷的气候中,比如Phoenix,白天温度经常超过100华氏度(约40度)仍可以正常工作。其采用的方案是使用空气和水来冷却服务器。

eBay使用的是戴尔模块化数据中心(MDCs),其水循环一般在87华氏度(约31度)左右可以保证服务器运行在可安全操作的范畴内。(说明,在这一方案中,戴尔保证其服务器空气冷却方案可以运行在104华氏度(40度)长达900小时/年,113华氏度(45度)90小时/每年)为了使高温下服务器也可以实现平稳运行,eBay特别设计了“Delta T”:进口温度和出口温度之差。Dean Nelson表示,eBay的服务器设计是将Delta T保持在6到12度。这意味着eBay提高进气温度时,仍可维持在一个可控的排热水平。在eBay Mercury项目的高密度机架服务器,其一般都可以运行外部温度高达119华氏度的环境中。

3.Elliptical Mobile Systems

Elliptical Mobile Systems也使用的是热水冷却组件的方案。在亚利桑那州坦培市在United Metal Products户外温度近40度的环境中,42U服务器集群中水的温度可以达到65-85度,冷却系统由空气循环和水循环组成。

“热水冷却”的效果非常明显。在此之前,SC10会议上,Eurotech展示的千万亿次超级计算机Aurora Au-5600,也是用的“热水冷却”,其PUE居然小于1。但热水冷却也有其技术制约,不仅是密封一体化的问题,还有所用辅助设备的能耗问题。有统计显示,关闭冷水机和CRAC单元往往会使数据中心需要花费更多电量来支持其冷却系统的正常运行。

Asetek显然可以妥善解决这两个问题。一体化是其技术优势所在,而Rack CDU方案使用热水冷却的原理是只需通过外部环境空气就能实现免费冷却(“100%的Free-Ambient-Air”)。其技术负责人表示:“Rack CDU允许使用的冷水机组更少,或者根本没有。”所以除了热水冷却系统之外,所有辅助设备的能耗可以降到最低。

技术实现过程:(来自Asetek 技术工程师Zack Fanning视频截图,视频地址,需要翻墙。)

从左至右依次为:数据中心需要冷却的高热环节,Rack CDU Liquid Cooling如何安装到服务器上;背板冷却水循环图。下图为40度的冷却实现过程。

Asetek CEO和创始人Andre Eriksen表示:“国防部正在寻求新方案来提升数据中心效率。Rack CDU( Rack Coolant Distribution Unit)所采用的直接流向芯片的热水冷却方案很强大,能够将数据中心中80%以上的热量带走,或者实现在大楼中能量复用(重新为建筑供暖或热水),或者在室外免费冷却。而不需要再浪费任何能源。”

事实上,美国已经有数个规定,要求国防部以及其他联邦政府部门的数据中心提升能源效率,增加可再生资源的使用和整合。 液体冷却在高性能数据中心或超算中心的应用已经相当普遍,比如能源部(Oak Ridge National Laboratory,橡树岭国家实验室)和美国国家安全局(NSA)。而此次的美国国防部计划将“热水冷却” 应用到机架服务器和刀片服务器中。

大:Free-Ambiet-Air;小:与暖气相接 

据悉,该项目预算在200万美元,需要将现有气冷却数据中心变成液体冷却数据中心,转变过程中不能存在任何破坏操作。项目完成后,美国国防部相信可以实现三个目标:1.明显降低能耗,2.提升机架和刀片服务器密度,3.从服务器流出的热水可以进行能源复用。

当然,这些目标需要验证。美国国家可再生能源实验室(NREL)将跟踪此项目,并分析RackCDU所带来的能源效率性能、存储、生命周期和环境利益,McKinstry将负责对安装投资的监控和收集数据相关结果。其汇总的测量、评估结果将决定Asetek热水节能技术能否在国防部更广范围内应用。业内对此项目保持了高度关注,Johnson Controls Federal Systems副总裁Mark Duszynski对媒体表示:“如果这项技术通过重重考核,那将为整个行业带来一个低成本的改造方案,适用于几乎所有的数据中心。”(文/郭雪梅,审校/仲浩)

资料链接:

Asetek进军数据中心制冷领域

Asetek CEO和创始人Andre Eriksen介绍HPC及云数据中心制冷(视频,翻墙)

Asetek技术人员解析热水冷却技术视频地址(翻墙)

美国国防部将用热水冷却数据中心服务器 

热水冷却三大项目

知识:摄氏温度(℃)和华氏温度(℉)之间的换算关系为:华氏度(℉)=32+摄氏度(℃)×1.8,摄氏度(℃)=(华氏度(℉)-32)÷1.8

备案号:鲁ICP备13029499号-2 说三道四 www.s3d4.cn 说三道四技术文摘