Höhere Energieeffizienz durch wärmere Server

Wirtschaft & Firmen Bill Weihl von Google ist der Meinung, dass in vielen Rechenzentren die Klimaanlagen auf zu niedrige Temperaturen eingestellt sind. Seiner Meinung nach kann man durch wärmere Server mehr Energie sparen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Aber ist das auch auf Dauer gut? Sehe ich nicht so! Wärmere Netzteile -> schnelleres Austrocknen der Kondensatoren -> schnellere Ausfälle.
 
@andreasm: Ich wüßte nicht, wo es problematisch ist, wenn das Netzteil 27°C warm ist. Es bleibt aber die Frage, weshalb die Abluft vom Prozessor unbedingt über das Netzteil abgeleitet werden muß. Daher ist es absolut sinnvoll, die Server so zu designen, daß sie an einer Stelle mit Frischluft bedient werden können, die im Gehäuse verteilt wird. Die arme Abluft darf auch nur an einer Öffnung austreten. Damit könnte die Wärme über ein Leitungssystem gezielt an einen sinnvollen Ort verbracht werden. Im Prinzip sollte sich dadurch eine aktive Klimatisierung erübrigen.
 
@AWolf: >>>Ich wüßte nicht, wo es problematisch ist, wenn das Netzteil 27°C warm ist.

Es geht nicht darum, dass die Netzteile 27° warm sind/sein sollen sondern die Umgebungsluft.
 
@AWolf: Ich nehme doch an das Google Blade Server verwendet, da sollte die Luft nicht über das Netzteil abgeleitet werden oder?
 
@frauhottelmann: Google verwendet selbstgebastelte server, news dazu gibts im inet genug
 
@AWolf: Der Vorgang der Austrocknung von Aluminium-Elektrolytkondensatoren mit flüssigem Elektrolyten durch Diffusion wird durch die chemischen Prozesse im Innern des Kondensators, durch die Qualität der Abdichtung und die auf den Kondensator einwirkende Wärme bestimmt. Meist wird die durch Austrocknung bedingte zu erwartende Lebensdauer mit dem sogenannten 10-Grad-Gesetz (Arrhenius-Gesetz, RGT-Regel) beschrieben. Das bedeutet, dass die Lebensdauer sich pro 10 °C Temperaturminderung verdoppelt.

Die Lebensdauer von Aluminium-Elektrolytkondensatoren mit flüssigem Elektrolyten wird in Form einer Zeit/Temperatur-Angabe spezifiziert, beispielsweise: 2000 h/85 °C, 2000 h/105 °C, 5000 h/105 °C, 1000 h/125 °C. Sie gilt, sofern nicht anders angegeben, einschließlich der Strombelastung mit dem spezifizierten Rippelstrom. Wenn man die Lebensdauer-Spezifikation von der oberen Temperaturgrenze mit dem 10-Grad-Gesetz auf normale Umgebungstemperaturen zurückrechnet, kommt man im Allgemeinen auf eine akzeptable Gebrauchsdauer dieser Kondensatoren.

Die (langsame) Austrocknung des flüssigen Elektrolyten führt meist nur zu (langsamen) Änderungen der elektrischen Parameter des Kondensators. Bei den heutigen hohen Reinheitsgraden in der Fertigung von Elektrolytkondensatoren ist auch bei einem vollständig ausgetrockneten Elko nicht mit einem Kurzschluss zu rechnen.
(Wiki)
 
@andreasm: Klimaanlagen entziehen der Luft Feuchtigkeit um sie abzukühlen. Wird eine günstige Klimaanlage eingesetzt, dann trocknen die Bauteile viel schneller aus als wenn es ein paar Grad wärmer im Serverraum ist. Zusätzlich wird mehr Energie benötigt um die Temperatur so weiter herunter zu kühlen. Und das nachträgliche befeuchten der Luft ist auch wieder Energie die nicht nötig wäre. Es muss also genau das richtige Mittelmass gefunden werden und nicht einfach blöd herunter zu kühlen.
 
@Benny81: Ich komm gerade gar nicht mehr klar hier. Hatte noch nie gehört, dass zuwenig Feuchtigkeit schlecht für Elektronik sein kann. Gibt es dazu Quellen?
 
@Colonel Lynch: Das ist alles was ich zu dem Thema gefunden habe: "Eine niedrige relative Luftfeuchtigkeit kann zu statischen Aufladungen führen - zu hohe Luftfeuchte kann Korrosionsschäden an den empfindlichen EDV-Anlagen erzeugen." (Quelle: http://bit.ly/buxhII oder http://bit.ly/9TPDiw)
 
Mir ist es auch neu, dass das Wasser aus der Luft (Luftfeuchtigkeit) in die Kondensatoren hineingeht bzw. wenn weniger Luftfeuchte vorherrscht, weniger Wasser in die Kondensatoren hineingeht und diese dann eher altern. Aber wenn jemand Quellen dafür hat, schaue ich es mir gerne mal an.
 
@andreasm: Ich denke die Luftfeuchtigkeit wirkt sich bis auf das oben von mir genannte nicht auf die Bauteile aus, aber höhere Temperaturen lassen die Elkos mit Sicherheit schneller austrocknen.
 
@slave.of.pain: Wobei ich mich gerade frage, was dieses "schneller" bedeutet. Wer das bei seinem Desktop-Rechner zu Hause betrachtet, mag hier sicherlich ein Auge drauf haben. Hier geht es um Systeme, die im RZ laufen. Bei "meinem" RZ werden die Kisten ohnehin nicht älter als drei oder vier Jahre, weil die Verträge mit den Kunden auslaufen. Da mache ich mir viel eher den Kopf darüber, wohin denn die viele "alte" Hardware entsorgt wird. Das ist schließlich auch mit Energie und "Altmaterial" verbunden.
 
@andreasm: ich schätze mal, dass durch den technischen Fortschritt die Server sowieso nicht sehr lange (nur 2-3 Jahre oder weniger) laufen, und dann durch neuere ersetzt werden. In dieser Zeit werden die Elkos durch höhere Temeraturen nicht unbedingt schon ausfallen, vor allem, wenn es sich um Qualtätsware handelt.
 
Na dann lasst schon mal die Server vorglühen... xD
 
Warum baut keiner Wärmepumpen in die Server Räume und heizt damit und macht warmes Trinkwasser damit? Energie ist für Unternehmen einfach zu billig....
 
@Antiheld: Gibts doch schon, diver schweizer Rechenzentren beheizen nicht nur das Haus im Winter sondern ganzen Hallenbäder (Stichwort: Wärmerückgewinnung):
http://www.ibm.com/news/ch/de/2008/02/21/p079802o48711o43.html
 
Gab es auch hier schon eine News zu: http://winfuture.de/news,48076.html
 
@mwr87:

Hoi, in solchen Sachen sind Wir wieder weit vorn!

Aber eine wirklich gute Umsetzung!

Grüessli
 
@Antiheld: Das alte Problem, daß Wärmepotentiale von wenigen °C nicht nutzbar sind, außer zum Heizen von Gebäuden oder Schwimmbädern. Nicht einmal für Warmwasser taugt ein 27° warmer Vorlauf. Deshalb auch die Kühltürme bei Kraftwerken.
 
@AWolf: Wichtig ist nur dass es überhaupt einen Temperaturunterschied gibt! 27° reichen definitiv aus um beispielsweise kaltes Leitungswasser vorzuheizen. Dann braucht man nicht mehr soviel Energie um auf eine Temperatur von durchschnittlich 65° für Warmwasser zu kommen. Dafür reichen sogar 15°. Ich habe solche Systeme selber schon verbaut. Man nimmt es Beispielsweise in in Altbauten und schlägt damit 2 Fliegen mit einer Klappe, da die Wärmepumpen auch entfeuchten.
 
Sehe ich genauso: In manchen Serverräumen mit unter 20 Grad holt man sich einen Zug. Die Server sind doch sowieso mit meistens genug Lüfter ausgestattet. Und durch keine direkte Sonneneinstrahlung dürfte das auch kein Problem sein.
 
@zivilist: Flasche ÜBERLEGUNG! Du musst hier mehrere Faktoren berücksichtigen. 1. Anzahl Server 2. Grösse 3. Hardware usw., Wir haben zb. 38 Server in ca 60 m2 grossen Raum, da nützen die Lüfter alleine gar nichts, weil sich der Raum mit der Zeit extrem aufheizt, würden die Lüfter immer heissere Luft umwälzen bis die Temp. den kritischen Punkt erreicht hat. Darum ist eine Klimaanlage unerlässlich. Wir kühlen auf 23 Grand runter.
 
@Rumulus: Die Frage ist doch: wie hoch ist die Temperatur vom Mainboard, Prozessor, Festplatte in den Server? Wird diese weit unterschritten, was der Hersteller als maximum angibt oder nicht? Dann ist noch die Frage, wie im letzten Absatz beschrieben, habt ihr energieeffiziente Server (Prozessor hoffenlich keine P4, gute Netzteile usw.).
 
@zivilist: falsch du kannst nicht so denken, wenn du die server immer bis 2°C vors maximum aufheizen lässt, dann geht das zwar, aber auch dann kannste in 2-3 monaten nen neuen server montieren^^
 
@zivilist: Unsere Klimaanlage ist auf 17 Grad eingestellt. Damit laufen die Server ganz gut. Gegenwärtig haben die Prozessoren eines meiner Server ca. 60 Grad. Bei 21 Grad wird es schon recht warm und im Sommer gab es damit schon mal Probleme. Liegt vielleicht aber auch mit daran, dass einer der Serverräume eine Fensterfront nach Süden hat, da gibt es trotz Sonnen-/Sichtschutz Wärmeeinstrahlung. Aber leider können wir das Gebäude ja nicht umbauen.
 
Lässt sich ja berechnen, was nur 1°C Temperaturerhöhung an Stromkosten einsparen würde, auch die Kompressoren der Klimageräte würden länger halten.
In den Servern sind die Elkos die entscheidende Komponente, bei der ein Temperaturanstieg von 20 zu 27°C sehr wohl einiges ausmachen würde.
http://de.wikipedia.org/wiki/Kondensator_(Elektrotechnik)#Alterung
"Die Lebensdauer dieser Kondensatoren halbiert sich, wenn die auf den Kondensator einwirkende Temperatur um 10 °C ansteigt" Durch Einsatz von Solid Polymerkondensatoreren wäre das Problem allerdings gelöst. Z.B. Gigabyte macht es auf ihren Mainboards und Grafikkarten vor, Seasonic bei den Netzteilen.
 
Wasserkühlung .....
spart hunderte lüfter, und kann teilweise schon passiv mit großen flächenkühlern im freien abkühlen...
 
@hannefass: und wie kühlst du das wasser? irgendwie muss die warme luft aus dem serverraum.
 
@hannefass: wie wäre es mit dem wasser nach draußen pumpen? und einfach passiv an kühltürmen abkühlen lassen. Im sommer wenn dann die sonne dazu komm kann man über Solarkollektoren und Sorptionsprozesse diese in Kälte umwandeln.....
 
@hannefass: da hast du dann ja deine lüfter wieder. es wäre dann ja quasi keine energieersparnis vorhanden weil die pumpen strom fressen, die lüfter welche die warme luft aus dem serverraum befördern. zudem müssen die wasserkühlungen auch relativ aufwändig gewartet werden was dann auch die ersparnisse zunichte macht.
 
@hannefass: Wartung? wie oft musst du deine Heizung zuhause warten?
weiterhin sind luftklima vom leistungsgrad nicht so gut wie wasserklima...dazu kommen noch luftverwirbelungen und du musst die leistung im raum verteilen, sonst hast du unterschiedliche temperaturen und wieder die verwirbelungen....
Nachteil wäre einzig das wasser im rechenzentrum....
aber selbst hp stellt waku server und racks zur verfügung bis 35 kw abwärme...
nennt sich dynamic smart cooling und auch von hp sind 25% energieersparnis drinne(zusammen mit virtualisierungen usw)
http://government.hp.com/content_detail.aspx?contentid=1114&agencyid=1
 
Das Alterungsgesetz mit 10° und Verdoppelung der Lebensdauer ist ja schön und gut. Nur ist das keine absolute Angabe, sondern eine relative.
Ich besitze ein Radio aus den 80ern. Das funktioniert immer noch mit seinen Elektrolytkondensatoren.
Die Frage die sich in diesem Fall stellt ist wohl eher, wurde für den richtigen Zweck das richtige Bauteil gewählt oder ist es dem Hersteller vielleicht lieber, dass ein Elko eben keine 20 Jahre hält, was für einen Rechner in einem Rechenzentrum vermutlich doppelt so viel wäre, wie benötigt.
http://dls01.vogel-medien.de/vmg/elektronikpraxis/download/296312/Langversion_Zeitbomben.pdf
 
Eines verstehe ich nicht. Wie soll Virtualisierung bitteschön zur Energieersparnis führen? Simplifiziert man das Konzept der Virtualisierung so ist es doch faktisch so, dass in einem System ein weiteres System läuft, in welchem letztendlich die Anwendungen wie Serverdienste usw. laufen, ohne direkten Zugriff aufs äußere System zu haben. Wo ist aber der Zusammenhang von virtualisiertem Betrieb zur Energieeinsparung? Die Hardware läuft doch so oder so und wird nur von hardwareeigenen Energiesparmechanismen bei Nichtnutzung und von intelligenten Funktionen eines Betriebssystems, das die hardware unterpriorisiert mit Energie versorgt, bzw. ganz abschaltet, das ist doch dann egal ob diese Technologie aus der virtuellen Schicht kommt oder von der darüberliegenden...
 
@Rikibu: Es können mehrere virtuelle Server auf einen physischen Server laufen, dadurch spart man physische Server und die Ressourcen (CPU, Arbeitsspeicher) des einen physischen Servers werden mehr genutzt und verbrauchen nicht fast ungenutzt Strom.
 
@Rikibu: Lastenverteilung, ich kann nur aus der Sicht von Hyper-V sprechen. Dieser kriegt fast 100% der Rechenleistung der realen Hardware an die Gast-OS durch. Ein Mailserver beispielsweise ist nicht 100% im Einsatz, je nach Zugriffen schwankt der Verbrauch der Leistung welche danach brach liegt. Diese Leistung investiert man z.B. in einen Datenbankserver welcher auch nicht immer 100% genutzt wird und kann so die Gesamtleistung besser ausnutzen. Auch entstehen weitere Vorteile. So können gewisse Hypervisor die virtualisierten Betriebssysteme innert Sekunden von einem Wirt auf einen anderen verschieben.
 
@Rikibu: Je nach Andrang kann auch ein realer Server abgestellt werden, wenn ein anderer Server, z.B. ein einfacher Mailserver noch Ressourcen hat. Die VM wird dann nahtlos auf einen anderen realen HyperV geschoben.
 
@Rikibu: weil überspitzt formuliert mindestens die hälfte aller server fast nichts zu tun hat. es laufen dienste darauf die das system praktisch nicht fordern. auf einem vm host kannst du eine vielzahl solcher systeme abbilden und so massenhaft physikalische server sparen. ich würde vermuten dass sich knapp 80% der server virtualisieren lassen. und von den 20% übrigbleibenden lassen sich bestimmt ebenfalls 80% auf blade server packen.
 
Die wollen nur sagen:"wer nicht bereit ist zu schwitzen denn Server abschalten".....da mus man jetzt auch mal WF nen kleines Lob geben...was die hier an Kommentare zulassen manchmal...da glüht sicher auch der Server....und für Leute die nicht wissen was Ironie ist hier bitte minus machen....WF hat innerhalb von 5 Tagen 4 Kommentare von mir weggezaubert.....
 
oooh sin die auch mal drauf gekommen, so heize ich zuhause schon länger... wenns im zimmer kalt is, mach ich meinen rechner an, un paar stunden später muss ich das fenster auf machen...
 
mit mehr Wärme steigt aber auch der Energieverbrauch der Server.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte