Wir nutzen Cookies, um Ihren Besuch auf unserer Website und unseren Service zu optimieren.
Wir betrachten die weitere Nutzung unserer Website als Zustimmung zu der Verwendung von Cookies.
PortalDerWirtschaft.de



Suchmaschinenoptimierung mit PdW
mit Content-Marketing - Ihre News

Clouds dieser Erde, vereinigt euch!

Von PR13

Von Jürgen Neureuther, Experte für Rechenzentren und Leiter der Business Unit Storage bei der ADN Group.

 

Obwohl weitgehend Einigkeit darüber herrscht, dass unternehmenskritische Daten digital und physisch in der eigenen Firma bleiben sollten, profitieren viele Workloads von der Performanz einer Public Cloud. Aller Voraussicht nach wird diese durch die niedrigen Einstiegshürden und gebrauchsfertige Pay-As-You-Go-Lösungen in der Symbiose mit firmeneigenen Rechenzentren weiter an Relevanz gewinnen. Die Zukunft des Rechenzentrums ist klar hybrid. Umso wichtiger ist es, Rechenzentren für diese Zukunft fit zu machen, denn die Herausforderungen sind zahlreich: Steigende Datenmengen, gestiegene Ansprüche in Sachen Verarbeitungs- und Übertragungsgeschwindigkeiten und nicht zuletzt Themen wie Datenschutz, Platzbedarf und Umweltschutz.

Dabei haben die Prioritäten sich von der Hard- zur Software-Seite verlagert. Dies lässt sich auch an der Anbieter-Landschaft ablesen: Von den in den letzten Jahren neugegründeten Herstellern im Data Center-Sektor zählt der Großteil zu den Software-Anbietern. Für (IT-)Verantwortliche bedeutet dies, dass die Auswahl geeigneter Data Center-Lösungen sich stark von einem technischen zu einem strategischen Thema wandelt. Doch was sind die Hintergründe dieser Entwicklung und wie findet man sich in der neuen, von Software bestimmten Data Center-Welt zurecht?

 

Bäumchen wechsle dich

Trends kommen und gehen. Über vier Jahrzehnte in der IT-Branche haben mich die Wahrheit hinter dieser Binsenweisheit gelehrt – heiß gehandelte Neuheiten verschwinden schon nach kurzer Zeit und Totgesagte leben länger. War es die längste Zeit Naturgesetz, dass Rechenzentren mit Hohlböden konstruiert wurden, wird darauf seit neuestem – auch aus Kostengründen und der leichteren Wartung von deckenmontierten Kabeltrassen wegen – verstärkt verzichtet. Dagegen scheint das Ende des Bandspeichers in weiter Ferne zu liegen. Dennoch sprechen drei langfristige Entwicklungslinien für die eingangs aufgestellte These vom zunehmend strategischen Thema des Software-definierten Rechenzentrums:

 

1. Rechenzentren werden im Hinblick auf Wartung und Betrieb immer einfacher

Früher brauchte es für alle Aufgaben im Rechenzentrum eigene Spezialisten, für Backups, Storage, usw. Diese mussten für ihre Aufgabenbereiche tage- und wochenlang geschult werden. Jeder Ausfall eines Mitarbeiters konnte bei Projekten häufig den kompletten Stillstand bedeuten. Mit den modernen, wesentlich intuitiver zu bedienenden und weniger wartungsanfälligen Systemen sind all diese Prozesse massiv vereinfacht. Zudem sind die Wartung und Diagnose von Rechenzentren zunehmend automatisiert. Moderne Rechenzentren erkennen bereits vorausschauend, wann eine Komponente ausfällt. Meldet beispielsweise eine SSD gehäuft Lese- oder Schreibfehler, wird das nahende Ende der Festplatte automatisch gemeldet und Ersatz geordert. Alles was dann noch zu tun bleibt, ist, das Bauteil mittels Plug&Play auszutauschen – ganz ohne Downtime oder Schrauben. 

 

2. Rechenzentren werden immer effizienter und ressourcenschonender

Im Jahr 1952 speicherte eine schrankgroße IBM 726 noch ein MB mit 100 Bits pro Zoll in 9 Spuren je Zoll auf 330 Meter Band. Heute passt auf eine handtellergroße SSD ein Vielfaches, bei damals noch unvorstellbaren Lese- und Schreibgeschwindigkeiten. Storage ist nur eines von vielen Themen im Rechenzentrum, verdeutlicht den Punkt der Effizienz jedoch besonders eindrücklich. Was früher auf vielen Quadratmetern Fläche untergebracht war, schrumpft auf wenige Höheneinheiten in einem einzigen Server-Schrank zusammen. Es wird intensiv daran gearbeitet die Ökobilanz von Rechenzentren zu verbessern, sei es im Hinblick auf Platzbedarf, Energie- und Wasserverbrauch und vieles mehr. Gleichzeitig steigt mit dem fast exponentiell wachsenden Bedarf an Rechen-Power auch der Anteil am weltweiten Energieverbrauch. 

 

3. Rechenzentren orientieren sich immer stärker am Nutzer

Wegen der weit fortgeschrittenen Standardisierung und der Abstraktion der Hardware durch Virtualisierung, rücken die technischen Details der Komponenten in den Hintergrund. Initiativen wie OCP (Open Compute Project), an denen sich alle großen Hersteller beteiligen, treiben die Standardisierung von Rechenzentrums-Hardware weiter voran. Hardware ist im Rechenzentrum immer mehr notwendiges Standardprodukt, aber nicht mehr zentraler Fokus. Heutzutage sind die modularen Systeme in alle Dimensionen skalierbar. Wo früher z.B. der Speicher knapp werden konnte oder die Performanz nicht mehr ausreichte, lässt sich heute die Kapazität in jeder Hinsicht einfach erweitern, wiederum ohne Stillstand. 

 

Erkenne dich selbst (und die passende Lösung): Wie man sich in der neuen Data-Center-Welt zurechtfindet

Wenn Strategie beim Thema Data Center immer wichtiger wird, steht die Ausrichtung der eigenen Data-Center-Infrastruktur stärker denn je im direkten Zusammenhang mit den mittel- bis langfristigen Unternehmenszielen. Datengetriebenen Geschäftsmodellen gehört allen Anzeichen nach die Zukunft. Doch beispielsweise das Sammeln und Verarbeiten von Big Data mittels K.I. stellt an die Ressourcen besondere Anforderungen. Sensible Daten, wie etwa Finanz- oder Personaldaten, bedürfen selbstverständlich eines besonderen Schutzes. Die allermeisten Firmen bevorzugen hier eine Speicherung der Daten auf den eigenen Servern. Dennoch bringt die Verwaltung auch dieser Assets (weiterhin z.B. in einer Private Cloud lagernd) in einer konsistenten und vereinheitlichten Umgebung Vorteile. Sobald die eigenen Prioritäten klar sind, gilt es selbstverständlich, die passende Lösung zu finden. Jenseits von Marketing-Material und technischer Dokumentation ist der Erfahrung nach ein bestimmter Faktor für die Auswahl des passenden Herstellers entscheidend: Die Philosophie hinter der Lösung. Welchen Hintergrund hat der jeweilige Hersteller und aus welchen Gründen hat er seine Lösung entwickelt? Gerade jüngere Hersteller, die ihren Fokus auf ein kleines, immer weiter ausgereiftes Lösungsportfolio legen, haben offensichtlich eine Lücke im bisherigen Markt gesehen. Auch wenn große Hersteller verstärkt das Mantra der Standard-Software beten, kann es kostspielig sein, etablierte Workflows zugunsten des Standards über Bord zu werfen. Hier hilft es, den Blick jenseits des Mainstreams schweifen zu lassen, welche “kleinere” Lösung den eigenen Anforderungen vielleicht eher gerecht wird. Schlussendlich stellt sich wie immer die Frage nach der Zukunftsfähigkeit der Lösung. Gibt es eine klare Roadmap und bin ich vor einem Vendor-Lock-In geschützt, z.B. durch unkomplizierte Migrationsoptionen? Bei all diesen Dingen erleichtert die Unterstützung durch einen kundigen Partner die Qual der Wahl. Ob die Distribution den IT-Dienstleister berät oder dieser seine Kunden – es geht darum, sich in der unübersichtlichen Vielfalt der Lösungen zurechtzufinden.

 

Ausblick: Auftritt des Software-defined Data Center (SDDC)

Seit einigen Jahren kann man die steigende Verwendung des englischen Zusatzes “Software-defined” durch die Hersteller zur Beschreibung ihrer Lösungen beobachten. Dieser Zusatz weist darauf hin, dass die Software-Lösung von der Hardware, auf der sie läuft, abstrahiert ist. Ebenfalls heiß diskutiert sind die Konzepte Converged und Hyperconverged Infrastructure, die nach einem ähnlichen Prinzip funktionieren. Alle diese Lösungen laufen entsprechend der weiter oben beschriebenen Entwicklung auf standardisierter Hardware und stellen eine vollständige Virtualisierung aller Komponenten des Rechenzentrums in Aussicht. Vielfach noch als Vision zu bezeichnen, umfasst das sogenannte “Software-defined Data Center” die folgenden Komponenten:

 

  • Netzwerk-Virtualisierung: Die Netzwerk-Virtualisierung teilt die Bandbreite auf beliebig viele Kanäle auf und weist sie je nach Bedarf dort zu, wo sie benötigt wird.
  • Speicher-Virtualisierung: Der verfügbare Speicher wird über alle Speicherressourcen so zusammengefasst, dass er wie ein einziger Speicher wirkt und zentral verwaltet werden kann.
  • Server-Virtualisierung: Bei der Server-Virtualisierung werden die Server-Ressourcen so maskiert, dass für den Benutzer alle Server, Prozessoren und Betriebssysteme abstrahiert sind und er sich über die Verwaltung der Server-Ressourcen keine Gedanken zu machen braucht.

 

Erfordert die vollständige Umsetzung dieser Vision aktuell noch einiges an technischem Know-how und Investition, bietet sie gerade in einer hybriden Rechenzentrums-Realität einiges an Potential.

 

SDDCs als Hans Dampf in allen Gassen?

Mit dem Software-defined-Ansatz lässt sich der nächste strategische Schritt im Rechenzentrum vollziehen, insbesondere, wenn man bereits auf Software-defined Storage oder Software-defined Server setzt. SDDCs setzen mit frei nach dem Bedarf der Nutzer skalierbaren Umgebungen auf ein Maximum an Flexibilität, Automatisierung und Effizienz. Zusätzlich wird das vorhandene IT-Personal dank des hohen Automatisierungsgrades und den geringeren Bedarf an Spezialwissen aufgrund höherer Standardisierung entlastet. Außerdem erlaubt die zentrale Verwaltung der Ressourcen eine effizientere Ausnutzung vorhandener Kapazitäten und das bedarfsgerechte Hoch-und Runterfahren der energiehungrigen Hardware. Letzteres ermöglicht außerdem eine Vereinheitlichung der Sicherheit mittels richtlinienbasierter Governance über die gesamte Umgebung hinweg. Neue Funktionen können mit wesentlich geringerem Aufwand als in klassischen Rechenzentren integriert werden. Ausfälle einzelner Komponenten werden durch das automatische Verlagern der Workloads auf andere Ressourcen kompensiert. Hybride Szenarien können über beliebige Standorte und Cloud-Anbieter einfacher denn je umgesetzt werden. Die Workloads und Daten lassen sich problemlos dorthin verlagern, wo es strategisch am günstigsten ist. Das Software-defined Data Center deutet an, wohin die Reise des Rechenzentrums in Richtung eines “Post Cloud-Zeitalters” gehen kann. Wer sich darauf einlässt, hat die Chance, seine IT noch einmal wesentlich flexibler und agiler aufzustellen. 

 

Das ADN Datacenter Insights Event

Um eine Vorstellung vom Rechenzentrum der Zukunft und Einblicke in das Potential moderner Speicher- und Datenmanagement-Lösungen zu gewähren, lädt die ADN Group am 03. November 2020 von 9 bis 16 Uhr zu einer Online-Konferenz zum Themenkomplex ein. Autor Jürgen Neureuther führt durch die ein spannendes Programm, in dem namhafte Hersteller ihre Perspektive auf das Rechenzentrum der Zukunft präsentieren. Details und die Möglichkeit zur Anmeldung finden sich hier.

 

Über den Autor

Jürgen Neureuther ist Experte für Rechenzentren und leitet die Business Unit Storage bei der ADN Group. Mit über 30 Jahren IT-Erfahrung mischt er seit dem ersten IBM-PC in der IT-Branche mit und ist dank seiner langjährigen Erfahrung in der Branche bestens vernetzt. Durch seinen engen Draht zu den Herstellern kennt er Trends, bevor sie entstehen.

 

 

23. Okt 2020

Bewerten Sie diesen Artikel

1 Bewertung (Durchschnitt: 3)

Teilen Sie diesen Artikel

Keywords

Hinweis

Für den Inhalt der Pressemitteilung ist der Einsteller, Dana Ba (Tel.: 040-21993366), verantwortlich.

Pressemitteilungstext: 1461 Wörter, 11920 Zeichen. Artikel reklamieren

Über PR13

PR13 ist eine PR-Agentur in Hamburg.

Kommentar hinzufügen

Name*
E-Mail*
Institution
Website
Ihr Kommentar*
Bitte lösen Sie 4 + 6

Weitere Pressemeldungen von PR13


Playa Games ernennt neuen CEO und kündigt Änderungen im Management-Team an

Playa Games gibt heute die Ernennung eines neuen CEO bekannt: Thorsten Rohmann.

15.01.2021
15.01.2021: Thorsten Rohmann, derzeit COO, wird mit sofortiger Wirkung neuer CEO von Playa Games. Thorsten Rohmann kam 2011 zu Playa Games und hatte in den letzten neun Jahren mehrere leitende Positionen im Unternehmen inne.   „Ich freue mich sehr auf diese neue, spannende Aufgabe. Shakes & Fidget hat inzwischen mehr als 65 Millionen registrierte Spieler und zieht weiterhin neue Nutzer auf der ganzen Welt an. Playa Games hat eine beeindruckende Geschichte von Innovation und Wachstum und ein außergewöhnlich talentiertes Team. Wir werden Playa Games weiterentwickeln und gemeinsam mit unseren Freunden i... | Weiterlesen

18.12.2020: Seit der Stellungnahme von Kemp-CEO Ray Downes steht fest, dass die IT-Produkte von Kemp und Flowmon von nun an als gemeinsame Lösung bereitstehen werden. Kemp sind als Experten für Application Performance-Verbesserungen durch Application Delivery Controller und Loadbalancing in der DACH-IT-Landschaft mittlerweile ein feststehender Begriff. Das liegt nicht zuletzt an den mittlerweile 100.000 aktiven Installationen von Kemp-Lösungen zur Lastenverteilung und der Tatsache, dass diese in den letzten 15 Jahren bei einer großen Mehrheit der On-Premise Exchange-Installationen zum Einsatz kamen. K... | Weiterlesen

ADN als bester Pure Storage Distributor in EMEA ausgezeichnet

Pure Storage Partner Awards: ADN wird als EMEA-Distributor des Jahres ausgezeichnet

14.12.2020
14.12.2020: Die diesjährige Auszeichnung der besten Partner von Pure Storage hielt für ADN eine erfreuliche Nachricht bereit: ADN wurde vom Hersteller als EMEA-Distributor des Jahres 2020 ausgezeichnet. Seit 2014 ist ADN Distributionspartner von Pure Storage im deutschen Markt und erwarb dieses Jahr auch die Distributionsrechte für Österreich. Mit Pure Storage hat ADN einen der weltweit führenden Hersteller in Sachen Speicherlösungen im Portfolio. Pure Storage, kürzlich erneut als Leader im Gartner Magic Quadrant 2020 für Primary Storage Arrays ausgezeichnet und damit erstmals den Branchenprimus N... | Weiterlesen