Quelle: Fotolia / Nmedia
Vor 20 Jahren gab es noch kein Cloud Computing. Es gab aber erste Ãœberlegungen zum „Grid Computing“.
Der Schritt in die Cloud ist für viele Unternehmen in der Energiewirtschaft heute ein Thema. Allerdings ist die IT-Landschaft in der Branche noch sehr heterogen und der Druck, eine Plattform beispielsweise mit Vertrags- und Fahrplanmanagement in die Cloud zu verlagern, ist noch nicht allzu groß. Mit zunehmender Digitalisierung der Geschäftsmodelle wird er allerdings wachsen und Dienstleistungen wie Software-as-a-Service werden weiter an Bedeutung gewinnen.
Vor 20 Jahren war der Begriff „Cloud“ noch nicht geprägt und die meisten Nutzer konnten sich nicht vorstellen, dass ein IT-System von einem Versorger wie Strom, Gas und Wasser zur Verfügung gestellt wird. Und auch der Zusammenschluss von Anlagen zu virtuellen Kraftwerken war noch Zukunftsmusik. Allerdings beobachtete die Energiewirtschaft damals sehr genau, welche Ãœberlegungen die IT-Konzerne in Sachen „E-Business on Demand“ hatten.
E&M-Redakteur Armin Müller berichtete Anfang 2003, als das Internet immer noch als Zukunftstechnologie gesehen wurde, über die Vision von IBM zum Computing von morgen und übermorgen.
Computer waren gestern, Internet ist heute, doch was kommt morgen? Bei IBM heißt die Antwort auf diese Frage „Grid-Computing“ – Rechner-Leistung nach Bedarf aus der Steckdose. Die Vision klingt etwas verwegen: Wer Rechner-Leistung benötigt, verbindet seinen PC mit einer Datensteckdose und kann von dort die für seinen momentanen Zweck nötigen Anwendungen, Speicherplätze, Rechnerleistungen und Daten bekommen. Der Kunde muss sich weder um die zusätzliche Hard- noch um die Software kümmern. Das sich selbst konfigurierende und optimierende System ist immer verfügbar, wie Strom oder Wasser. Abgerechnet wird – über die transferierte Datenmenge oder die in Anspruch genommene Rechner-Zeit – nur die tatsächlich aus dem Netz bezogene Leistung.
Doch bevor es so weit ist, bevor Computer-Leistung wie Strom, Gas oder Wasser (als das „nächste Utility“, so IBM) aus einem immer betriebsbereiten Netz bezogen werden kann, ist noch Einiges an Entwicklungsarbeit zu leisten. Das IBM-Entwicklungszentrum in Böblingen zog kürzlich eine Bilanz der bisherigen Forschungsarbeiten zum sogenannten „Grid-Computing“.
Die Richtung der Entwicklung sei vorgezeichnet, aber es gebe noch viel zu tun, bilanzierte Herbert Kirchner, Geschäftsführer der IBM Deutschland Entwicklung GmbH. Das heutige E-Business, also die elektronische Abwicklung von Geschäftsprozessen, wandle sich zum „E-Business on Demand“, zur zeitweisen Bereitstellung von Infrastruktur und Geschäftsprozessen, eben nur dann, wenn sie benötigt werden. Gleichzeitig müsse sich das Internet von einem Transportmedium für Daten zu einem „großen virtuellen Computer“ weiterentwickeln, forderte Kirchner.
Aktuelle Rate von 2,5 Gbit pro Sekunde
Derartige Rechner-Netze gibt es bereits heute in unterschiedlicher Ausprägung und für verschiedene Zwecke. So sind beispielsweise die Hochleistungsrechner in den Forschungsinstituten oder in einigen Unternehmen über solche Netzwerke verbunden. Die durch den Computer-Verbund gesteigerte Rechenleistung nutzen beispielsweise die Forscher am Teilchenbeschleuniger CERN und an fünf weiteren angeschlossenen Instituten, um künftig, wenn ab 2006 der größte Teilchenbeschleuniger der Welt in Genf seinen Betrieb aufnehmen wird, bis zu 100 Millionen Messdaten pro Sekunde aufzuzeichnen und zu verarbeiten. Andere Grid-Computer verwenden die Automobilindustrie für Crash-Simulationen, die Meteorologen für die Wetterberechnung oder die Öl- und Gasförderer für die Auswertung von seismischen Daten. Auch IBM selbst nutzt einen Rechnerverbund für die Simulation neuer Chips.
Diesen Rechner-Verbünden ist gemeinsam, dass sie über Hochleistungs-Netze verknüpft sind, die von außen nicht zugänglich sind. Die deutschen Forschungszentren verbinden derzeit beispielsweise Leitungen mit einer Kapazität von 2,5 GBit/s, wünschenswert wären 10 bis 100 GBit/s, erläuterte in Böblingen Marcel Kunze, Leiter Grid-Computing am Karlsruher Institut für Technologie.
Es geht aber auch einige Nummern kleiner und langsamer, zumindest was die Datenleitung angeht: Auch mit herkömmlichen PCs, die über das Internet verbunden sind, lässt sich ein Supercomputer realisieren. So hat Sebastian Wedeniwski vom IBM-Labor in Böblingen mit seinem „ZetaGrid“ weltweit rund 4.000 PCs miteinander verbunden. Sie alle arbeiten dann, wenn normalerweise der Bildschirmschoner eingeschaltet wird – fast 90 Prozent der CPU-Zeit ist ein Arbeitsplatzrechner im Leerlauf – an dem Beweis der 1859 aufgestellten „Riemannschen Hypothese“. Dazu werden die Nullstellen einer Funktion berechnet. Sie sollen Aufschluss über die Verteilung von Primzahlen geben. Mit seinem Rechner-Verbund, dem sich jeder durch Herunterladen eines Zusatz-Programmes anschließen kann, erreicht Wedeniwski derzeit eine Rechenleistung von 438 Milliarden Operationen pro Sekunde (GFLOPS). Das ist nur geringfügig weniger, als der Cray-Superrechner des Deutschen Wetterdienstes leisten kann. Andere PC-Netze suchen etwa die Radiosignale aus der Astronomie nach Hinweisen auf außerirdisches intelligentes Leben ab.
Auf dem Weg zum „Intergrid“ für jedermann
Bis aus derartigen Nischenanwendungen das „IT aus der Steckdose“ wird, ist allerdings noch einige Entwicklungsarbeit nötig. Insbesondere sind die Standardisierungen voranzutreiben, wenn künftig Rechner mit unterschiedlichen Betriebssystemen intensiv zusammenarbeiten sollen. Ein internationales Forum sorgt für die Suche nach und die Definition von solchen Standards. Weitere Entwicklungsschwerpunkte sind die Themen Sicherheit und automatische Konfiguration derartiger Systeme. Mehr Rechen-Kapazität für das Management der Netzwerke soll sicherstellen, dass die Systeme sich automatisch optimieren und an den aktuell geforderten Bedarf anpassen können.
Mit der Umsetzung erster Schritte hin zu Pilotprojekten wollen die IBM-Spezialisten noch in diesem Jahr beginnen. Vieles von der benötigten Technik sei schon vorhanden, einiges müsse allerdings erweitert und angepasst werden, hieß im Böblinger Entwicklungszentrum. Ein erster Schritt zur Realisierung sind sicher unternehmensintern genutzte Netze, erst viel später kommt das „Intergrid“ für jedermann. IBM will zunächst den Kunden bei der Analyse der Ist-Situation behilflich sein und entweder für sie ein derartiges internes Netz errichten oder später selbst Teile eines IT-Verbundes, etwa Server oder Speicherplatz, auf dem Markt anbieten.
Ob die Kunden künftig tatsächlich ihre Computer-Leistung aus der Steckdose beziehen werden, hängt davon ab, ob sie Vertrauen in die Sicherheit und Seriosität des Angebots haben werden – und natürlich davon, ob nicht doch die eigenen Rechner billiger sind.
Samstag, 28.01.2023, 16:22 Uhr
Armin Müller
© 2024 Energie & Management GmbH