[分享]大型和超大型数据中心空调水系统供冷规模设计

发表于2018-03-16     1359人浏览     1人跟帖     总热度:531  

大型和超大型数据中心空调水系统供冷规模设计_1

1、数据中心空调水系统规模 


在大型数据中心,多幢数据机楼组成庞大的数据中心群机楼,选择制冷中心的数量和制冷规模是必须要考虑的一个问题,这直接关系到数据中心的建设成本和空调系统可用性。制冷规模可以采用单幢数据机楼供冷或区域供冷。如中国电信在建的云计算内蒙古园区,就由42幢楼组成,每幢楼约18,000M2,需要多个供冷中心。


2.独立供冷(单幢机楼供冷)


就是每一幢机楼设置一个单独的制冷机房,该制冷机房只对自己这幢楼进行供冷。单幢机楼供冷系统比较简单,这有利于系统的维护和检修,当水系统发生故障时,只对该楼设备造成影响,不会影响到别的机楼,故影响面较小,是目前数据中心普遍采用的方式,下图1是独立供冷示意图:


大型和超大型数据中心空调水系统供冷规模设计_2


但对于多幢机楼组成的数据中心,需要每个机楼均搞一个制冷机房,如云计算内蒙园区,按这种方式需要建42个独立的制冷中心。这种方式导致制冷机房较多,相对占地面积较大,由于制冷机组多,操作维护工作量较大;而且各个供冷中心内部,为了安全,也需要考虑冗余和备份,导致投资过大。


2.1. 独立供冷的系统冗余 


如果是A级机房(T4),水管管路必须是两个独立的系统,每个系统可以独立承担单幢楼数据中心所有的热负荷,运行时两个系统必须同时在线运行,单个系统故障不会对数据中心产生任何影响,这就是系统冗余。每个系统都独立承担100%的热负荷,这就是N+N系统冗余,如图2,但是这样投资很大。


大型和超大型数据中心空调水系统供冷规模设计_3


2.2. 组件冗余

如果不满足系统冗余,仅仅是部分组件故障有冗余,就叫组件冗余。B级机房(T3),水系统管路也需要设计为两个系统,但是主机和末端可以公用,运行可以采用主备用方式进行,支持有计划的系统检修;组件冗余就是系统中常用的组件考虑冗余,如水泵采用N+1方式,冷机采用N+1方式,冷却塔采用N+1方式,机房空调采用N+X方式,这些就是组件冗余。


2.3. 系统冗余和机组冗余投资比较 


采用高标准,势必会带来投资的增大。采用系统冗余的投资很大,从纯正的字面理解,双系统可能是单系统200%的投资,但如果合理设计系统冗余,达到A级标准(T4)的同时,也是可以大幅降低初期的投资费用。

 

对于B、C级机房,机组不需要系统冗余,只需要考虑机组的冗余,一般采用的N+X 冗余,X=1~N,从实际运行来看,当N值较少时(N<4),2台机组同时出现故障的几率非常低,x取1基本已经可以应对突发故障情况。对于部分重要机房,不严格按照A级机房设计的,而又需要提高可靠性或者负载扩容的,可以先按照N+1配置,但预留扩容一台机组的位置。

  

3.区域集中制冷 


单幢机楼供冷有一个缺点,就是1幢楼有一个制冷中心,如果数据中心够大,那建设的供冷中心就会足够多,如云计算内蒙云园区,按照单幢楼供冷的特点,需要42个供冷中心,而且各个数据中心内部需要冷机、水泵、冷塔、管路的冗余和备份,这些备份和冗余在各个数据中心之间无法实现共享,导致设备投资的大量浪费。以T4标准的数据中心举例,每幢楼建2个独立的水系统,2幢楼就需要4个独立系统;如果能够以两幢数据中心为单元进行数据中心建设, A楼的水系统作为B楼的备份,B楼的水系统作为A楼的备份,这样系统就会简单的多,每个楼只需要建一个水系统就可以了。

   

区域供冷是指若干数据机楼统一由两个或几个专门的大型制冷中心进行供冷,通过管道把制取的冷冻水送到每一幢数据中心机楼,如图3,如果数据中心区域供冷,相比民用区域供冷,优势更为明显:数据中心发热量大,建筑集中,该种方式统一设置冷冻站,减少机组占地面积,集中供冷有利于提高机组的负荷率,冷源效果高,可获得更大的能效比;其次数据中心集中冷源站占地少,降低了冷源设备的初投资;另外数据中心区域供冷减少了机组备用数量,相对减少机组的投资;集中操作和运维,易于优化控制和维护管理,可以减少运维人员。


大型和超大型数据中心空调水系统供冷规模设计_4


区域供冷系统实践的技术已经非常成熟。日本是对区域供冷系统实践较早的国家,技术、经验相当成熟,采用区域供冷后,日本新宿新都和日本东京晴海Triton广场就采用区域供冷供热系统,该些区域供冷供热系统的年均一次能源能耗COP达到1.19,高居日本全国区域供冷系统第1、2位。


在新加坡,区域供冷系统案例包括购物商城加商用楼的滨海购物中心,樟宜商业区,纬壹城等项目。在建的新加坡西部的数据中心区也包括区域供冷系统,前期建设还没有实施这个区域供冷系统。


表Table:

大型和超大型数据中心空调水系统供冷规模设计_5

在中国,广州大学城区域供冷是亚洲规模最大、世界第二大区域供冷系统,图4,整体整个系统建有4个冷站,空调负荷主要是10所高校的教学区和生活区大楼以及两个中心商业区供冷。整个系统由冷站、空调冷冻水管网及末端供冷系统三个子系统组成。该区域供冷总装机容量10.6万冷吨,蓄冰规模26万冷吨,供冷总建筑面积达350万m2。



4.数据中心的区域供冷设计 


对于数据中心机楼群,之前已经提过因为数据机楼集中,而且发热量大,采用区域供冷更具有优势,图5,在建设有热电冷三联供区域的地方,也可以采用溴化锂制冷,降低电网压力;在能够利用自然冷源的场合,如利用低温湖水供冷的,也可以考虑采用区域供冷方案。从区域供冷的实际使用情况来看,水管的距离不宜过长,否则会导致水泵耗能增加,最好控制在4公里以内,流量不宜太大,最好采用二级泵设计,这样可以降低水泵的消耗,这些条件均适合数据中心。


大型和超大型数据中心空调水系统供冷规模设计_6

如果考虑系统冗余,数据中心区域供冷就需要两个制冷中心,组成2N系统,每个冷冻站制冷能力可承担100%负荷,如图6:


大型和超大型数据中心空调水系统供冷规模设计_7


中国电信云计算内蒙园区最终将有42幢机房楼,如果每幢机楼单独配一个冷冻站,每个冷冻站安装4台1200冷冻水机组(三主一备),相当于建设42个冷冻站,一百六十八台冷冻机组,由于每个机楼负荷不同,这些冷冻站输出也不相同,导致冷机效率也不仅相同,如1200冷吨离心机组满载效率为0.6KW/冷吨;当部分负荷时,效率下降为0.8KW/冷吨,如果采用区域供冷,设立二个冷冻站,如图7,就可以达到T4标准,而且采用2000冷吨以上的离心机组,冷机满载效率上升到0.52KW/冷吨,故可以节约大量的能耗,另外两级泵设计,可以降低输配系统的能耗,加上冬季采用冷却塔供冷技术,节能的效果会更加明显;另外可以节约多达42台备用冷机的投资,同样的相应的备用冷却塔、备用水泵的投资也可以降下来。


大型和超大型数据中心空调水系统供冷规模设计_8

考虑到现在云计算园区的制冷需求非常大,也可以设计成多个冷冻站,每个冷冻站承担33%的园区负荷,这样可以进一步降低投资成本,如图8。


图8:数据中心设置4个冷冻站示意图

大型和超大型数据中心空调水系统供冷规模设计_9

5.结束语 

相比单幢楼供冷,采用区域供冷的好处很多,比如节省用地,以及减少运行管理人员数量从而节省高额人工费,同时还采用了多种先进的节能措施来减小空调系统的能耗,比如冷机可以采用高压冷机降低配电能耗,也可以集中设置蓄冷罐,提升水系统可靠性等等。数据中心采用区域供冷不利的是初期的管路投资会增大,水系统较为庞大和复杂,一旦水系统故障,影响和波及面大,检修也不易,目前国内数据中心采用区域供冷案例基本没有,设计、建设和运维人员对区域供冷还比较谨慎,但随着设计技术的进步,建设水平和运维水平的提升,相信不久区域供冷会在大型数据中心推广使用。

来源网络,如有侵权请联系删除

扫码加入筑龙学社  ·  暖通空调微信群 为您优选精品资料,扫码免费领取
分享至

分享到微信朋友圈 ×

打开微信"扫一扫",扫描上方二维码
请点击右上角按钮 ,选择 

 发表于2018-03-16   |  只看该作者      

2

很好的资料

胡桃皮夹子

中国  | 其它专业

3 关注

999+ 粉丝

259 发帖

180 荣誉分

该博主未添加简介

猜你爱看

添加简介及二维码

简介

还可输入70字

二维码(建议尺寸80*80)

发站内信息

还可输入140字
恭喜您已成功认证筑龙E会员 点击“下载附件”即可
分享
入群
扫码入群
马上领取免费资料包
2/20