it-swarm.cn

您是否在服务器之间跳过机架单元?

在安装机架式服务器时,似乎在观念上存在很多分歧。有讨论螺纹臂和其他机架安装配件的话题,但我很好奇:

安装服务器时,是否在服务器之间留有空的机架单元?为什么或者为什么不?您是否有任何经验证据来支持您的想法?有谁知道一项研究能够最终证明一项研究是否更好?

70
Matt Simmons

如果您的服务器使用从前到后的直通式冷却,就像大多数机架式服务器一样,留下的间隙实际上会损害冷却。您不希望冷空气通过服务器本身来到达热通道。如果您需要留有空隙(出于电源方面的考虑,地板重量问题等),则应使用挡板,以防止空气在服务器之间通过。

81
jj33

我从未在机柜中的机架式设备之间跳过机架单元。如果制造商指示我在设备之间跳过U,那么我从未见过这样的建议。

我希望任何设计用于机架安装的设备都会通过前面板或后面板散发热量。将会通过Rails以及底盘的顶部和底部)传导一些热量,但是与前后辐射相比,我希望它会非常小。

23
Evan Anderson

在我们的数据中心,我们不会留下空白。我们的地板上有凉风,缝隙会引起气流问题。如果由于某种原因确实有缝隙,我们将用一块空白板盖住它。立即添加空白板会使我们的冷通道的顶部变冷,而我们的热通道的温度变高。

我认为我没有数据或图表了,但是一旦我们开始进行更改,区别就非常明显。机架顶部的服务器停止了过热。我们停止了烹饪电源的供应(以每周约1个的速度进行)。我知道更改是在我们的数据中心经理从Sun绿色数据中心博览会回来之后开始的,在那里他参加了一些有关冷却等的研讨会。在此之前,我们一直在机架前后的地板上使用间隙和部分填充的机架以及穿孔的瓷砖。

即使有管理部门到位,消除差距也取得了更好的效果。现在,我们在房间中所有地方的所有服务器内部温度都在规格范围内。在我们标准化电缆管理并消除间隙并纠正地砖放置之前,情况并非如此。我们想做更多的工作将热风引回CRAC部门,但是我们还没有资金。

22
Laura Thomas

我不跳过我们。我们租房,我们花钱。

这些天没有理由加热。所有的冷空气都在前面,然后从后面出来。顶部不再有通风孔。

9
mrdenny

Google不会在服务器之间留下U,我想他们对热量管理感到担忧。观察大型公司的工作情况总是很有趣。这是他们数据中心之一的视频: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

直接转到4:21查看他们的服务器。

6
Mathieu Chateau

我的UPS(将来用于安装第二个电池)上方和磁带库(如果我需要另外一个)上方有很大的空隙。除此之外,我没有空隙,并且我使用面板填充空白空间以保持气流。

5
pauska

我们有3 1/2机架价值的群集节点及其在同一位置的存储。我们唯一需要跳过的地方就是将网络电缆路由到核心群集交换机所在的中央机架。我们可以负担得起在空间上明智的做法,因为机架已经在功率方面达到了极限,因此不可能将更多节点塞入其中:)

这些机器以100%CPU运行24/7,其中一些机器在1U机顶盒中最多可容纳16个内核(4个四核Xeon),我还没有看到在大多数机器之间不留空格的负面影响。

只要您的设备的空气通道设计合理,我就不知道为什么会如此。

5
Kamil Kisiel

如果地板上有凉爽的空气,请不要留空间,并在未使用的u空间中使用毛坯。如果您只是使用标准空调设备的低技术冷却系统,则当热服务器聚集在一起时,最好留出空隙以最大程度地减少热点。

5
user9925

我不会在服务器之间留有空隙,但是我会为LAN交换机做些事情-这使我可以在上下放置一些1U电缆管理条...但是,冷却绝对不是完成的。

3
Mitch Miller

每三分之一,但这是由于 管理部门 以及需要围绕它们而不是发热量进行工作的缘故。这些服务器每个都有6Cat5电缆连接到它们的事实无济于事。我们确实大量使用了挡板和机架顶部的挡风条,以防止热通道再循环。

而且,我们的数据中心不容缺少的一件事就是空间。它是为7-10U服务器标准配置而设计的。现在我们已经使用了密集机架式ESX集群,那里就是一个鬼城。

3
sysadmin1138

我有一种印象(也许是错误的),这是在一些未广泛使用热/冷通道的电信环境中的一种流行做法。

但是,它不适合高密度和运行良好的数据中心。

2
Dan Carley

除非我们已将服务器或其他东西取出来并且不费心去重新安排,否则没有任何差距。我认为我们比这里的许多人要小一些,只有2个机架,只有15台服务器,还有一些磁带驱动器,交换机和UPS。

2
Ward - Reinstate Monica

除了计划扩展圣诞老人系统或类似的事情时,别无其他。我们倾向于将新机柜放置在靠近实际控制器的位置。

如果散热良好,除非服务器结构不良,否则留出缝隙将无济于事。

2
chankster

在我们拥有自己的数据中心并且空间不成问题的情况下,我过去常常在逻辑区域之间跳过U(使用隔离物来阻止气流):Web服务器具有一个部分,数据库,域控制器,电子邮件,文件服务器有另一个,防火墙和路由器有另一个。远程台式机的交换机和配线架位于它们自己的机架中。

我完全记得一次出于冷却原因跳过U的情况。这是一所高中的A/V有线电视循环解决方案,那里有三个单元,每个单元负责为大楼的一部分提供有线电视系统。在由于过热而不得不在两年内第三次更换顶部单元之后,我在机架上进行了一些“手术”以制造安装孔,这样我就可以在1/2之间留出空间三个单元中的一个(总共1 U的总空间)。

这确实解决了问题。不用说这已经被完全记录下来了,为了获得更好的效果,我在一张纸上用胶带将它们之间的缝隙贴了一下,解释了为什么事情是这样的。

这里有两节课:

  1. 仅在例外情况下才能进行冷却。
  2. 使用信誉良好的机箱或服务器供应商。请小心购买试图将2U热量包装到1U空间的设备。这将很诱人,因为1U系统可能看起来便宜得多。并且要小心购买未充分考虑气流的品牌外包装。
1
Joel Coel

我通常在大约5RU的服务器(即5x1ru或1x2ru + 1x3ru)之后留一个空白RU,这取决于您所使用的数据中心中的冷却设置。如果您在机架前面进行过冷却(例如,机架的前端)的想法是将冷空气从地板上推上来,而您的服务器通过它们吸收冷空气。在这种情况下,通常可以通过不留空插槽(即使用空白的RU盖)来获得更好的散热效果。但是根据我的经验,如果通过机架中的地板进行散热,则可以通过拆分服务器来提高散热效率在整个机架上彼此重叠

1
Brendan

服务器之间留有空隙会影响散热。许多数据中心在“热通道”“冷通道”的基础上运行套件。

如果在服务器之间留有空隙,则会影响有效的气流和散热。

本文可能感兴趣:

交替的冷通道和热通道为服务器场提供了更可靠的冷却

0
Kev

我将它们堆叠在一个机架中。从来没有任何问题,所以我从来没有任何理由将它们隔开。我可以想象人们将它们隔开的最大原因是热量。

0
John Browning

我之前在两个开关之间留了RU的1/3,主要是因为它们每个的高度都为1 1/3 RU。

如果我将它们拼凑在一起,那么更高的档位将错位1/3U。

除此之外,我从未离开过纯粹用于散热的空间,只是为了未来的增长。

0
Criggie