it-swarm.cn

服务器机房的正确温度是多少?

当我在服务器机房工作时,我发现天气很冷。

我知道服务器室必须很冷才能抵消服务器的热量,但是也许太冷了。

使我们的服务器机房保持在适当的温度是多少?

63
freddiefujiwra

关于服务器机房温度的建议差异很大。

本指南 表示:

一般建议建议您不要低于10°C(50°F)或高于28°C(82°F)。尽管这看起来范围很广,但这些都是极端情况,将环境温度保持在20-21°C(68-71°F)附近更为常见。由于种种原因,这有时可能是一个很高的要求。

Slashdot上的 discussion 有多种答案,但大多数答案都在上面引用的范围内。

更新:正如下面其他评论所述, Google 建议数据中心的温度为26.7°C(80°F)。

另外 美国加热,制冷和空调工程师协会 (ASHRAE)最近 更新了他们的推荐温度范围 为18°C-27°C(64.4° F-80.6°F)。

但是,这个 article 再次突出表明,在该主题上仍未达成共识。如文章所述,我要强调:

...将恒温器调高一点也可能会减少从冷却故障中恢复的时间,并且仅适用于对设备中的冷却条件有深刻了解的公司。

IMO的大多数公司对冷却条件的了解都不够,因此在小企业环境中将房间运行得凉一点会更安全。

NB:重要的是要注意,服务器/数据室中还有很多因素需要考虑,例如温度,空气流量和湿度也很重要。

53
mundeep

Google的 数据中心最佳做法 推荐80度:

升高冷通道温度将减少设施的能源消耗。不要试图在70F下运行冷通道。将温度设置为80F或更高-几乎所有设备制造商都允许这样做。

我们的运行速度为72,但我仍然不完全相信我们自己的房间在设计时会考虑气流的问题。

10
jldugger

正如其他人所说,在低70 F的某个位置比较好。但是,确保机架和其中的硬件可以“呼吸”更为重要。如果热空气滞留在机架中或服务器机箱中,那么低的环境温度实际上并不会起到任何作用。

8
user640

我的服务器机房设置为69度。我们有一个为该房间提供服务的空调装置,它以24/7的速度运行,以使房间全年保持69度。

4
GregD

我见过的所有服务器机房通常都在20°C到25°C之间,但是根据经验,我发现硬件对变化的敏感性比给定温度还要大。我经常看到即使在20至25之间的温度下,在达到4-5°C的温度后,硬件也会发生故障。

因此,稳定性和气流当然是关键。

4
anto1ne

18°C(65°F(华氏度))。它比必须的要冷一些,但是如果出现故障,它会给我们一些宝贵的额外时间,使其在变得难以忍受的高温之前做出反应。

4
Commander Keen

请记住,Google提出的80°F的建议实际上不包含因意外负载或空调故障而导致数据中心过热时关闭数据中心的费用。它们还包括对关键部件的气流进行更好的控制。

2
carlito

我们希望我们的温度在19C到23C之间,而在28C时发出警报-我们拥有98%的HP刀片服务器,因此,如果达到该警报水平,某些服务器/机箱会“降低其灯芯”以降低总体功耗(这就是所谓的Thermalogic)。

1
Chopper3

以我的经验,这取决于设备。我知道一家公司有三个服务器机房。一个保持在80°F左右,另一个保持较少的服务器,保持在72°F,而第三个只有两个服务器,保持在65°F。我在那里的时候从来没有遇到过问题,但是,就像其他人所说的那样,最好在75°F或略低于此温度,因为如果AC熄灭,它的肘部空间会更大。

1
Joshua Nurczyk

https://zh.wikipedia.org/wiki/Data_center_environmental_control 包含有关卖方数据中心温度建议的有趣概述:

enter image description here

0
Franck Dernoncourt

我在海军。在我们的船上,我们将房间的温度保持在华氏65度以下。我们应该在红海中部,外面是120度。我们会穿着一件毛衣,手套,一件外套和一件豌豆大衣走出太空(62度),每个人都会像疯了一样看着我们。其他所有人都穿着宽松的T恤衫,满头大汗。

问题是,我们的冷却系统不能很好地去除湿气。因此,如果外面潮湿,温度上升到70度或以上,它就会在空间中变粘。

0
Justin

这个问题没有坚定而迅速的答案。这在很大程度上取决于计算机的类型和数据中心的设计。

斜线讨论 中提出的要点之一是,真正的困难在于处理 热点和气流

室内凉爽的环境温度是降低室内数千个热点温度的简便方法。但这是低效率的:当真正需要的全部数据是为服务器的热部分(CPU,内存,存储, 电源 等)冷却时,数据中心为整个房间散热。许多托管设施的客户使用不同类型的硬件(115V或208v,好的设计,不好的设计)。

数据中心还需要保持足够的冷空气以提供 在断电的情况下提供缓冲 。缓冲的冷空气意味着UPS和发电机的工作量减少。想象一下,一个数据中心一次失去了100%的电源(所有节点都掉电,冷却也掉电了)。节点可能没有电源,但是硬件将需要一些时间来冷却,并且仍会散发热量,这会使数据中心非常热。

具有温暖服务器机房的组织通常使用封闭的机柜和精美的风管系统将冷空气直接引导到热节点上。专门的电力基础设施可以帮助减少电力转换产生的热量。即使服务器机房中的环境温度较高,这也可以使节点保持足够的凉爽。这些组织通常具有 对其硬件的大多数方面都有严格的控制,并且可以自定义设计整个数据中心 来满足他们的需求。他们可以进行投资并获得收益。

0
Stefan Lasiewski

第一:您在哪里测量室温? ;-)机架冷侧温度是多少?机架的热面是什么?空调进气温度是多少?

这实际上取决于设备。 (感觉到xbox散发出来的热量)热管理是一门科学,Look Honda(以及许多其他产品)正在开始为冷却的排气口注水;-) ...

我会告诉你我曾经去过的数据中心:

Equnix保持DC的凉爽(使高管出差时获得良好的“经验”)

RW使它们保持80f左右的热/热状态,地板上散发着凉爽的空气(更好的房间/保险库设计和整体更高质量的系统设计)

Coresite(至少我曾经去过的地方)离RW更近,但这取决于CR和客户。一些CR在80,一些在70。(冷岛总是冷的)

0
sirmonkey

我们发现进气口温度超过30°C都会引起温度警告(我们将对其进行监控),通常这意味着室温低于25°C。

在澳大利亚,似乎艾默生(李伯特)决定将21c作为标准,而我一直在这里居住的每个房间都设置为相同。

如果您的房间足够大,可以看看热风/冷风,空白瓷砖等等,它们确实可以提高冷却效率。

0
LapTop006