Cloud Technology

Virtualisierung erklärt

Virtualisierung erklärt Post Cover

Cloud-Computing bestimmt immer mehr sowohl die Geschäftswelt als auch unseren beruflichen Alltag. Schließlich können Unternehmen dadurch effizienter, gewinnorientierter und sicherer als jemals zu vor arbeiten. All das wäre jedoch ohne den Prozess der Virtualisierung niemals möglich gewesen. Was genau das ist und wie Virtualisierung eigentlich funktioniert verraten wir
in folgendem Artikel. 

Das ist Virtualisierung

Unter Virtualisierung versteht man die Simulation bzw. Virtualisierung von Hardware-Umgebungen, mit denen dann alle erdenklichen Computing-Dienste ausgeführt werden können. Und zwar ohne, dass die einzelnen Dienste dabei an eine bestimmte Hardware gebunden wären, wie das in
traditionellen IT-Netzwerken der Fall ist.

Praktisch kann man sich das so vorstellen: Eine traditionelle IT-Infrastruktur verwendet für einen bestimmten Computing-Dienst eine spezifische Hardware, also z.B. einen dedizierten Server für Mails und einen führ die Ausführung von Anwendungen. Durch die Virtualisierung können mehrere
Computing-Dienste die selbe Hardware bzw. den selben Host verwenden und gleichzeitig völlig autonom voneinander funktionieren. 

In unserem Beispiel würde das dann bedeuten, dass die selbe Hardware für Mails und Anwendungen genutzt wird. So können Prozesse deutlich skalierbarer und effizienter gesteuert werden. Da außerdem weniger Hardware verwendet werden muss, das reicht von Servern über Kabel bis hin zu Kühlsystemen, gehen natürlich auch die Betriebskosten extrem zurück.
Virtualisierung macht Computing Diente jeder Art praktischer, effizienter und günstiger. 

Damit wird auch deutlich, warum es ohne Virtualisierung kein Cloud Computing geben kann. Denn schließlich geht es beim Cloud Computing ja gerade darum, dass der jeweilige Anbieter Infrastruktur, Plattformen und Software anbietet, ohne dass der Nutzer tatsächlich im Besitz der jeweiligen physischen Rechenleistung sein muss. Mit der immer weiter steigenden Bedeutung
des Cloud Computing in der Unternehmenswelt wird also auch die Bedeutung des
Virtualisierung immer weiter zunehmen. 

Wie funktioniert Virtualisierung? 

Das Grundprinzip der Virtualisierung ist eher unkompliziert. Mit einer als Hypervisor bezeichneten Software werden aus einer physischen Rechenmaschine mehrere virtuelle Rechenmaschinen erstellt, die unabhängig voneinander agieren. Der Hypervisor kann dabei entweder auf einem Desktop oder, wie in dem meisten Fällen, auf dem Server direkt ausgeführt werden. 

Den Hypervisor kann man sich dabei quasi als Management-Hilfe vorstellen, mit der man die verschiedenen virtuellen Rechenmaschinen erstellt, Aufgaben zuweist und anschließend verwaltet. Das besondere daran: Der Hypervisor weist den verschiedenen virtuellen Prozessen automatisch die benötigte Rechenleistung der physischen Rechenmaschine zu. So können Anwendungen und ganze Netzwerke optimal skaliert werden. 

Damit andere Nutzer auf die verschiedenen virtuellen Rechenmaschinen zugreifen können, werden diese in Netzwerkpools zusammengefasst – der Cloud. So kann eine einzelne physische Maschine für unzählige unterschiedliche Anwendungen genutzt werden. Das war in der Vergangenheit
undenkbar. 

Dadurch, dass jetzt deutlich weniger physische Rechenmaschinen für die selbe Leistung verwendet werden, können Unternehmen die eigenen Wartungs- und Energiekosten ungemein senken. Im nächsten Schritt macht die Virtualisierung dann das Unterhalten von internen physischen
Rechenmaschinen überflüssig. So zum Beispiel, wenn man eine Public-Cloud wie Amazon AWS verwendet, bei der alle Computing Dienst nur noch über eine virtuelle Umgebung bereitgestellt werden. 

Die verschiedenen Arten der Virtualisierung

Das Prinzip der Virtualisierung ist also unkompliziert. Wie diese Technologie in der Realität jedoch ausgeführt bzw. angewendet wird, kann sich stark unterscheiden. In den letzten Jahren hat die IT auch in diesem Bereich große Fortschritte gemacht und die Virtualisierung bietet Unternehmen
heute mehr Möglichkeiten als jemals zuvor. 

Diese Prozesse lassen sich damit unter anderem organisieren:

  • Desktop-Virtualisierung
  • Daten-Virtualisierung
  • Speichervirtualisierung
  • Netzwerkvirtualisierung

Desktop-Virtualisierung

Traditionelle Desktopumgebungen waren vor allem in Büros jahrzehntelang der Standard. Dabei gibt es allerdings ein Problem: Jede dieser Umgebung muss für jeden physischen Rechner individuell installiert, konfiguriert und aktualisiert werden. Durch die Desktop-Virtualisierung kann ein zentraler Administrator oder ein automatische Anwendung diese Desktopumgebung auf hunderten von physischen Rechnern simulieren.

Diese zentrale Position, egal ob Administrator oder Bot kann dann auch an all diesen Desktopumgebungen Massenkonfigurationen und -Updates durchführen. Auch sicherheitsüberprüfungen können von einer zentralen Stelle durchgeführt werden, ohne dass man physischen Zugriff auf den Rechner benötigt. Vor allem die Netzwerke großer Unternehmen können so deutlich kostengünstiger, sicherer und effizienter agieren. 

Daten-Virtualisierung

Die Daten-Virtualisierung ist eines der wichtigsten Tools sowohl für Cloud als auch für Edge Computing und alle Big Data Technologien. Dabei werden Daten von verschiedenen und vielfältigen Speicherorten bzw. aus verschiedenen Quellen an einem zentralen Ort virtuell zusammengefasst. Der Nutzer kann dann auf diese Daten zugreifen, als würden sie aus einer einzigen Quelle stammen. 

Speichervirtualisierung

Bei der Speicher-Virtualisierung wird das Konzept der Virtualisierung etwas anders eingesetzt. Dabei werden die Speicherleistungen verschiedener Rechenmaschinen virtuell gebündelt und dann von einer zentralen Konsole aus gesteuert. Die Speichervirtualisierung ist entscheidend um die
Leistungen großer Netzwerke rationalisieren und so skalieren zu können. 

Netzwerkvirtualisierung

Die Netzwerkvirtualisierung ist der nächste logische Schritt im Prozess der Virtualisierung. Dabei wird die verfügbare Bandbreite eines physischen Netzwerks in mehrere unabhängige Kanäle eingeteilt. Diese Kanäle werden dann wieder nach Bedarf Servern oder Geräten zugewiesen. So kann die Bereitstellung eines Netzwerks, etwa wenn es um Firewall oder Load-Balancing geht, deutlich vereinfacht werden. Und das ohne, dass an der zugrundeliegenden Infrastruktur etwas geändert werden müsste.