Vortragsfolien: Herausforderungen beim Arbeiten in der Wolke

Vielen Dank für das große Interesse an dem Vortrag im Heise Forum auf der CeBIT!

Zwar findet natürlich der Großteil des Inhalts auf der Tonspur statt, aber erste Anregungen und Hilfestellungen vermitteln auch schon die Vortragsfolien, weshalb wir sie hier zum Download bereitstellen: ConsultingLounge_CeBIT2011_Herausforderungen beim Arbeiten in der Wolke

Mir ist zunächst wichtig, etwas Bodenhaftung in das Wolken-Thema zu bekommen. Im ersten Teil findet daher eine Positionsbestimmung statt, was – fragen Sie mal einen Piloten – ohne die richtigen Instrumente ziemlich schwierig ist in einer Cloud. Auch in der IT ist derzeit die zentrale Herausforderung, eine gemeinsame Auffassung davon herzustellen, wovon wir eigentlich reden, wenn es um „Cloud“ geht.

Die inflationäre Verwendung des Labels trägt nicht zu den Zielen bei, die wir als Berater haben: Klarheit. Orientierung an konkreten Anforderungen und Nutzen.

Dann wenden wir uns den Bereichen zu, in denen die Herausforderungen bestehen, die man bedenken und behandeln muss, wenn es um die Transition von Services (Leistungen, Diensten, Anwendungen) in die Cloud geht. Diese sind sowohl technischer als auch betriebswirtschaftlicher Natur. Ein Berater-Team sollte beide Seiten abdecken, denn eine einseitige Herangehensweise wird nicht zu einem sicheren und erfolgreichen Ziel führen.

Ziele sind es aber, die beim Weg in die Wolke als erstes definiert werden müssen. Warum wollen Unternehmen überhaupt in die Cloud? Was sind meine Optimierungsziele? Dazu muss zuerst herausgefunden werden, welche Services das Unternehmen betreibt und benötigt und was diese im aktuellen Produktionsmodell kosten und leisten – sonst kann keine Entscheidung getroffen werden, ob durch den Einsatz eines Cloud Modells überhaupt Verbesserungen erzielt werden.

Kommen Sie mit weiteren Fragen gerne auf uns zu – Kontaktdaten finden Sie unter anderem in den Folien.

Citrix Access Gateway Enterprise Theme / Interface anpassen

Citrix hat für die Enterprise Edition 9.x ein weißes Theme zur Verfügung gestellt, das sich wie folgt installieren lässt:

  • Archiv von http://support.citrix.com/article/CTX123607 herunterladen, auf den Netscaler / das CAGEE kopieren, z.B. nach „/var“
  • Testweise entpacken: „tar -xvzf /var/AGEE_white_theme.gz -C  /netscaler/ns_gui/vpn/images/“
  • Wenn das Ergebnis zufriedenstellend ist, die obige Zeile eintragen in „/nsconfig/rc.netscaler“ (dann wird bei jedem Bootvorgang wieder das Theme ersetzt, sonst ist die Änderung nach einem Reboot verloren)

 Allgemein bzw. darüber hinaus lässt sich das Webinterface des CAGEE auch inhaltlich anpassen. Da die Informationen dazu über diverse Dokumente in der Citrix Knowledge Base verteilt sind, hier eine Übersicht:

  • Ein Verzeichnis für die angepassten Dateien anlegen, zum Beispiel „/var/custom“ – das ist nötig, damit Anpassungen einen Reboot überleben können, denn beim Booten werden die Original-Dateien immer wieder hergestellt
  • Unter „/netscaler/ns_gui/vpn/“ die Dateien index.html und login.js nach Wunsch anpassen
  • Die Lokalisierung in verschiedene Sprachen findet über Ressourcen unter „/netscaler/ns_gui/vpn/resources/“ statt – hier können alle Texte geändert werden
  • Alle angepassten Dateien in das oben erstellte Verzeichnis kopieren („/var/custom“)
  • In das Boot-Script „/nsconfig/rc.netscaler“ Copy-Aufrufe eintragen, die die angepassten Dateien an die entsprechenden Stellen unterhalb von „/netscaler/ns_gui/vpn/“ kopieren – das könnte bei passend angelegter Verzeichnisstruktur so aussehen: „cp -r /var/custom/* /netscaler/ns_gui/vpn/“
  • Beim Testen darauf achten, Browser und Proxy Caches zu leeren. 🙂

Vortrag: Herausforderungen beim Arbeiten in der Wolke

CeBIT, 2. März 2011, 15:15 Uhr, Heise Forum Sicherheit und IT-Recht (Halle 5, E38)

Was Sie auf dem Weg zum Cloud Computing bedenken sollten

 Stell‘ Dir vor, alle reden von Cloud und keiner geht hin. Der deutsche Mittelstand zögert. „Cloud“ ist viel zu nebulös, um allgemeingültige Aussagen über den Nutzen zu treffen. Die Consulting»Lounge kann Sie als Nebelscheinwerfer auf dem Weg in die Cloud unterstützen. Wir stellen die Herausforderungen vor, die auf diesem Weg zu bedenken sind, der schon ein ganzes Stück vor der Wolke beginnt und nicht zwingend hinein führt.

SP1 für Server 2008 R2 und Windows 7 ist RTM

Das Servicepack 1 für Server 2008 R2 und Windows 7 ist seit dem 09.02.2011 RTM (Release to Manufacture).

Für TechNet-Abonnenten und Volume Licensing-Kunden wird es ab dem 16.02. verfügbar sein, am 22.02. findet es sich dann auch in Windows Update und dem Microsoft Download Center.

Das Service Pack bringt eine Zusammenfassung der Updates seit dem Release der Betriebssysteme, neue Features bekommt nur der Server spendiert: RemoteFX und DynamicMemory.

DynamicMemory für Hyper-V ist Microsofts Antwort auf die VMware ESX und Citrix XenServer Lösungen einen Memory Overcommit zu ermöglichen, also den VMs insgesamt mehr virtuellen RAM zur Verfügung zu stellen als physikalisch vorhanden ist.

Dabei wird der Arbeitsspeicher dynamisch verteilt statt in Pagefiles zu schreiben. Die VM teilt dem Hypervisor mit, wie viel RAM sie effektiv belegt und bekommt diesen zugeteilt. Dadurch stehen Speicherbereiche, die sonst reserviert wären, zur Verfügung und können von weiteren VMs genutzt werden. Wird mehr RAM benötigt als physisch vorhanden ist, nutzt der Hypervisor wie zuvor Pagefiles.

Dank dieser Technik lässt sich die Auslastung des physischen Speichers verbessern und es können mehr Systeme bereitgestellt werden, so lange die Auslastung innerhalb der virtuellen Maschinen sich unterhalb des maximal zugeteilten Wertes bewegt.

RemoteFX ist eine Erweiterung des RDP-Protokolls von Microsoft. Diese ermöglicht es, anspruchsvolle grafische Inhalte wie Flash, Silverlight oder 3D-Anwendungen von der GPU beschleunigen zu lassen.

Ist im Client eine entsprechende Grafikkarte verbaut, werden die Inhalte auf dem Clientsystem berechnet. Werden hingegen ThinClients oder ähnliche Systeme ohne entsprechende Hardware genutzt, kann der Server diese Aufgabe übernehmen. Voraussetzung ist natürlich, dass er eine entsprechend leistungsfähige Grafikkarte verbaut hat.

Die Serverhersteller arbeiten bereits an entsprechenden Systemen mit der nötigen Hardwarebasis, da die aktuell verwendeten Grafikkarten selten zu den leistungsfähigen am Markt zählen. Die Nutzbarkeit beschränkt sich aufgrund gestiegener Bandbreitenanforderungen hingegen auf das lokale Netzwerk (LAN). Für Verbindungen über das WAN empfehlen sich wie bisher die Mehrwertlösungen von Citrix (XenApp, XenDesktop), die das hochoptimierte HDX-Protokoll verwenden.

Durch diese beiden Features werden alleine mit Windows Bordmitteln aber neue Möglichkeiten der Bereitstellung von VDI Umgebungen gegeben. So lassen sich mehr Clientsysteme auf weniger physischen Hosts bereitstellen und nutzen als dies bisher möglich war.

Chrome Instant – Fluch oder Segen?

Vor Kurzem erschien die neuste Version von Googles Hausbrowser „Chrome“. In diesem wurde ein neues Feature implementiert, das sich „Chrome Instant“ nennt. Womöglich kennen Sie „Google Instant“, eine Funktion, die Ihnen bereits die Suchergebnisse beim Tippen anzeigt. „Chrome Instant“ überträgt diese Technik in die Adressleiste des Browsers: Noch während Sie tippen, wird die vermutete Zielseite geladen – ohne, dass Sie etwas dafür tun müssen.

So komfortabel diese Funktion auch ist, sie hat diverse Nachteile: Wird eine Webseite geladen, noch während der Anwender tippt, ist nicht vollständig sichergestellt, dass der Anwender auch diese Seite tatsächlich besuchen möchte. So wird bei der Eingabe von „stern“ vermutlich die Webseite „stern.de“ geladen, erst im weiteren Verlauf fügt der Anwender ein „-tv.de“ hinzu, um die Adresse zu komplettieren: „stern-tv.de“. Durch den unnötigen Aufruf von stern.de wurde selbstverständlich Bandbreite in Anspruch genommen, die womöglich anderen Verbindungen zur Verfügung hätte stehen können. Je größer das Unternehmen, desto kritischer wird das ständige Vorausladen „auf gut Glück“.

Auch Administratoren von Webservern werden die Hände über dem Kopf zusammenschlagen: Ihre Zugriffs-Logs werden in Zukunft häufiger von 404-Fehlern übersät sein, da die gewünschte Adresse vom Anwender noch nicht komplett eingegeben wurde und so ein Zugriffsfehler provoziert wurde. Auch hier gilt: Jeder Aufruf einer Webseite, sei es mit echten Inhalten oder einer Fehlerseite, beansprucht Bandbreite des Webservers, was bei hochfrequentierten Seiten zu Performance-Problemen führen kann.

Die Marketing-Abteilung wird das neue Feature des Browsers besonders kritisch beäugen: Das gut ausgeklügelte System zur Optimierung der Webseite bricht in sich zusammen, wenn die Statistiken über Besucherherkunft, Besucherbewegung auf der Webseite und Klickstrecken mit Datenmüll durch ungewollte Aufrufe unbrauchbar werden. Es ist zudem kein Verlass mehr auf die Page Impressions, da man nicht sicher sagen kann, ob eine Seite tatsächlich aufgerufen und gelesen wurde oder ob die Page Impression ein Produkt von „Chrome Instant“ ist.

Zuletzt ist es wieder ein Schritt Richtung Kontrollverlust des Anwenders über sein Arbeitsgerät. Immerhin muss „Chrome Instant“ (noch) vom Anwender aktiviert werden. Aktuell hat Google Chrome eine Verbreitung von bis zu 20% (laut w3schools.com), doch der Browser konnte in den vergangenen Monaten in großen Schritten zu Konkurrenten wie Firefox und Internet Explorer aufschließen. Es ist also nur eine Frage der Zeit, bis man sich Methoden überlegen muss, wie man mit dem wohl gut gemeinten, aber schwer kontrollierbaren Feature umgehen wird.

Outlook Anywhere via Citrix Netscaler (SSL-Offload)

Outlook Anywhere, vormals bekannt als „RPC-over-http(s)“, ermöglicht den externen Zugriff mit „richtigem“ Outlook auf Exchange ohne die Notwendigkeit eines VPN-Tunnels. Dazu wird ein SSL-Proxy von extern zugänglich bereitgestellt, der nach innen dann mit dem Exchange Client Access Server (CAS) spricht.

Aus Netzwerksicht:

Outlook <–HTTPS (tcp/443)–[Firewall]–> Netscaler <–RPC*–[Firewall]–> CAS

Da das Problem mit den dynamischen Ports bei RPC damit noch nicht erschlagen wäre, sind die RPC-Verbindungen zwischen Netscaler und CAS auf eine überschaubare Anzahl von Ports (3) festgelegt. Standardmäßig sind das tcp/6001, tcp/6002 und tcp/6004, die also auf der inneren Firewall geöffnet werden müssen zwischen Proxy und CAS.

Die Verbindungspfeile sind oben bewusst so gezeichnet, dass die Verbindungen beim Netscaler terminieren und von dort neu ausgehen. Der Citrix Netscaler arbeitet mit einer Full-Proxy-Architektur, d.h. er terminiert alle Verbindungen auf der einen Seite und initiiert eigene Verbindungen auf der anderen Seite. Erst diese Arbeitsweise als „Simultan-Dolmetscher“ macht viele Funktionalitäten möglich:

  • TCP-Optimierungen, die die Server entlasten und Verbindungen beschleunigen (Multiplexen von vielen Client-Verbindungen auf wenige Verbindungen zu den Backends, Maximieren von Framegröße uvm.)
  • Caching und Kompression (transparent)
  • Schutz vor Angriffen inklusive: Protokoll-Anomalien kommen nie bei den Backends an, da diese nur saubere Verbindungen vom Netscaler zu sehen bekommen.
  • Web Application Firewall (WAF, in Platinum Edition enthalten) hat Einblick in vollständigen Layer7-Verkehr und kann auf Anomalien in HTML, JavaScript/Formularen, XML uvm. prüfen.
  • Der Dolmetscher kann beim Übersetzen beliebig optimieren und verändern – gilt beim Netscaler in beide Richtungen, d.h. sowohl Request als auch Response!

Zurück zu Outlook Anywhere. Die Funktion muss auf dem CAS zunächst aktiviert werden, entweder per PowerShell oder in der Exchange Verwaltungskonsole (Server – Clientzugriff – Outlook Anywhere aktivieren):

enable-OutlookAnywhere -Server:<ServerName> -ExternalHostName:<ExternalHostName> -ClientAuthenticationMethod:Basic -SSLOffloading:$true

Erforderliche Informationen beim Aktivieren:

Servername – der interne FQDN des CAS (sollte vom Netscaler aufgelöst werden können)
Externer Servername – der FQDN, der durch Outlook von außen angesprochen wird, unter dem also der Netscaler erreicht wird und auf den das SSL-Zertifikat ausgestellt ist
„SSL-Verschiebung“ – krude Übersetzung für SSL-Offload, wenn aktiviert, akzeptiert Exchange unverschlüsselte Verbindungen vom Proxy

Dann wird auf dem Netscaler ein SSL-Offloading (Content Switching) VServer angelegt – am einfachsten macht man sich das mit dem passenden AppExpert Template für Outlook Web Access, das direkt einige Parameter wie Caching, Compression, sowie einen Encoding-Filter konfiguriert. Erforderlich ist hier natürlich ein valides SSL-Zertifikat, das an den VServer gebunden wird, sowie die individuellen IP-Adressen für VServer und Backends (CAS Server). Um die Sicherheit noch weiter zu erhöhen, können noch die über diesen VServer erreichbaren Pfade eingeschränkt werden.

Dazu unter AppExpert – Pattern Sets ein neues Set anlegen und (maximal) mit den folgenden Pfaden bestücken: /owa, /public, /ecp, /autodiscover, /microsoft-server-activesync, /rpc, /unifiedmessaging, /ews. Mit diesem vollständigen Set sind später alle OWA/OMA-Funktionen über diesen VServer möglich.

Das Pattern Set nun verbindlich machen, indem eine Rewrite-Policy gebunden wird: AppExpert – Applications – OWA – RedirectToHTTPS – Insert Policy – New Policy.

Die Policy überprüft, ob der Pfad im Request mit einem der durch das Pattern Set (Name des Sets ist Parameter der Expression) definierten zulässigen Pfade übereinstimmt. Falls nicht, trifft die Expression zu und die Policy führt die angegebene Action aus. Diese wiederum ändert dann den Pfad im Request, hier zum Beispiel auf „/owa“, so dass der Request auf die Outlook Web App zugreift:

Wird nun der VServer über ein Destination NAT oder das Freigeben des HTTPS-Zugriffs auf die externe Adresse des VServers zugänglich gemacht, kann schon die Konnektivität geprüft werden. Dazu gibt es einerseits ein CMDlet, um vom Exchange Server selbst aus zu testen:

Test-OutlookConnectivity -Protocol:Http -GetDefaultsFromAutoDiscover:$true -verbose

Und andererseits eine praktische Website von Microsoft, mit der man tatsächlich auch ActiveSync, OWA, OA und SMTP von extern testen kann (mit einem Wegwerf-Postfach am besten): https://www.testexchangeconnectivity.com Hier ist unter Umständen die Aussage irreführend, OA würde nicht funktionieren, weil die anonyme Authentifizierung für die Site im IIS aktiviert ist. Falls OWA mit Formular-Authentifizierung und OA in der selben Site betrieben werden sollen, ist dies erforderlich, was den Test stört (nicht unterstützt), die Funktion aber nicht verhindert.

Dann muss nur noch Outlook konfiguriert werden: Kontoeinstellungen – Exchange-Konto – ändern – weitere Einstellungen – Verbindung – Verbindung mit Microsoft Exchange über HTTP herstellen (check) – Exchange-Proxyeinstellungen – diese URL verwenden: externer Servername wie bei der Aktivierung angegeben – Authentifizierung: passend zur aktivierten Authentifizierungsmethode (Basic = Standardauthentifizierung).

Bei der Standardauthentifizierung werden Benutzername und Passwort beim Verbinden per IE-Dialog abgefragt – und dann ist Outlook „Verbunden mit Microsoft Exchange“. Viel Spaß. 🙂

Über die XenServer HA-Mechanismen

Dieser Artikel entstand als Beitrag in den internationalen Community-Foren von Citrix und ist daher englisch verfasst. Es gibt immer wieder Fragen und Diskussionen zu den Effekten, die bei aktiviertem HA Feature in einem XenServer Pool auftreten – daher möchte ich die Hintergründe und Funktionsweisen hier erläutern, denn so wird das Verhalten nachvollziehbar und auch weitgehend vorhersagbar (unerlässlich für eine sinnvolle Planung).

The case is described (very short version) as a pool of multiple XenServer hosts that loose network connectivity due to failover of a HP Flex-10 fabric or other reasons and then sending all hosts into a reboot loop.

This behaviour is more or less by design, I think (don’t take this as an official statement, I must not speak for the vendor or their specialists!).

A XenServer pool is able to act and react without a management server, because all pool members decide on their own, what their state and the state of the pool is. They do so by checking network heartbeat AND storage heartbeat for the availability of all other hosts. If both heartbeats fail, a host will analyze in what manner they have failed: Is nobody else reachable via neither of the heartbeats? Then I am all alone and the problem is most probably located in or at my very self –> fencing strikes! And it strikes by triggering a low (hypervisor) level hard reboot.

Imagine a different (more probable) situation: a pool with 5 servers. Due to split connectivity, three servers are on one „side“ and two on the other side. They can each reach the pool members on their side via at least one heartbeat, but not the other portion. In this case (where „some“ heartbeats are still good, others are bad) the smaller group will fence and reboot. The larger group will elect a new master and restart the VMs that were running on the now fenced servers. If the two groups would be equal in member size, the current pool master will make the difference, i.e. the group containing the master is the larger group.

This is a very intelligent concept and probably the only way to make this work automatically, but it has the downside of one case: Everybody uses all heartbeats. Everybody is alone. Everybody fences. Nobody is master.

Keen thesis: This case should be avoided by a good architecture/design on the fabric part. 😉

Because of todays „converged infrastructures“, the two heartbeats may not be that different anymore, because you don’t have storage and networking on two different fabrics in all cases, yes, this weakens the otherwise very strong concept of two heartbeats (storage heartbeat is actually a „quorum“ for deciding, who is there and who is not).

Über Speichervirtualisierung

Virtualisierung ist in aller Munde. Alles und jeder wird virtualisiert – nur das mit der Cloud ist noch schlimmer (Cloud-Salat). So ist der Begriff der Virtualisierung im Storage-Bereich auch schon länger angekommen, lässt aber ebenfalls schon länger keine Rückschlüsse darauf zu, was eigentlich gemeint ist.

Eine Variante von Speicher-„Virtualisierung“ hat HP schon lange im Programm (schon bevor es zum Buzzword wurde, behaupte ich mal): EVA. Enterprise Virtual Array. Da wird innerhalb der Speichermaschine virtualisiert. Bei den klassischen Arrays, seien es EMC² AX, CX oder HP MSA oder NetApp FAS oder oder… sieht der Admin Controller und Platten, baut RAID-Sets (Aggregates bei NetApp) mit einem RAID-Level aus von ihm bestimmten Platten zusammen, legt Volumes an und stellt sie als LUNs zur Verfügung. Dazu muss er wissen, was auf den Volumes laufen wird, um die RAID-Level richtig zu wählen und die Anzahl der Platten passend zu bestimmten für die geforderte Performance und Verfügbarkeit – was dann für die Zukunft auch statisch so ist und bleibt. Bei einer EVA sieht der Admin die einzelnen Platten nur zur Information über den Hardware Status und um Speicher Pools zu definieren. Innerhalb eines Pools gibt der Admin Eigenschaften bzw. Anforderungen wie das Redundanz-Niveau vor. Dann legt er Volumes innerhalb der Speicher Pools an, für die er wiederum das Redundanz-Niveau und die gewünschte Größe definiert. Wie die EVA dann intern tatsächlich die Daten über die Platten verteilt, weiß der Admin nicht. Das ist dynamisch und abhängig davon, wie viele Volumes mit welchen Anforderungen es gibt. So ändert sich auch mit der Zeit die Menge des verfügbaren Speichers in einem Pool, denn die EVA balanciert und striped die Volumes dynamisch über den gesamten Pool. Das ermöglicht prinzipiell, dass sie die Verteilung auf Spindeln aus Performance- oder Platz-Sicht optimiert. Angeblich tut sie das auch – unmittelbar nachvollziehbar ist das im Detail aber nicht, ist halt virtualisiert.

SAN-Virtualisierung im Sinne von DataCore und anderen sieht hingegen so aus, dass man einen Windows Server braucht, auf dem die DataCore Software installiert wird. Was immer an Storage dem Server zur Verfügung steht – sei es Direct Attached (DAS) oder unterschiedliche SAN-Arrays im Backend, erst mal muss es der Windows Server erreichen können – kann dann als Basis für die Funktionalität verwendet werden. D.h. es wird das tatsächliche Backend virtualisiert/abstrahiert und nach vorne einheitlich per iSCSI präsentiert (das kann mit kleinerem Feature-Set auch mit einem Windows Storage Server erreicht werden).

SANmelody ist dabei auf ein HA-Pärchen limitiert, SANsymphony unterstützt N+1 Redundanz. Loadbalancing findet nur zu den Backends statt (wobei auch erst SANsymphony Multipathing-Arrays unterstützt), d.h. die Anwendungsserver (iSCSI Initiators) sprechen immer mit einem Target (DataCore Server). Andere Vertreter dieser Gattung sind OpenFiler, aber auch – in anderem Maßstab – HP SVSP.

Dann taucht in dem Zusammenhang auch noch ein HP Produkt auf, das allerdings weniger selbst virtualisiert als dass es wirklich optimal als Storage für Virtualisierungsumgebungen geeignet ist: HP P4000 (the artist formerly known as „Lefthand“). Was dort virtualisiert wird, ist eigentlich nur die Anzahl der Knoten; es wird ein Cluster gebildet aus N Knoten, der von allen iSCSI Initiators über eine Cluster-IP angesprochen wird und die tatsächlichen Verbindungen dann auf die beteiligten Knoten verteilt. Es entsteht ein „hyperredundanter“ Speicher-Cluster, der immer gleichzeitig Platz und Performance skaliert, sehr performant und praktisch immer Feature-complete ist (einmal kaufen, nichts nachlizensieren). Die Redundanz bis hoch zur Knoten-Ebene (Ausfall eines kompletten Speicherknotens) ist transparent für die iSCSI Clients, ein aufwändiges, fehleranfälliges und möglicherweise sogar manuelles Failover zwischen Sites ist nicht nötig.

Allerdings können P4000 Speicherknoten auch virtuell sein – als Virtual SAN Appliance (VSA) für VMware ESX(i), die wiederum das komplette Feature-Set zur Verfügung stellt. Betrachtet man nun also den ESX-Host als Vergleich zum o.g. Windows Server, der als Basis für z.B. DataCore SANsymphony dient, dann kann man mit einer P4000 VSA alle dem Host zur Verfügung stehenden Storage Backends nutzen und einheitlich, mit dem gesamten P4000 Funktionsumfang, präsentieren, mithin also virtualisieren. In diesem Konstrukt sind allerdings schon so viele Ebenen beteiligt, durch die ein Datenblock zum Lesen oder Schreiben wandern muss, dass das Szenario seine Grenzen haben sollte.

Bevor ich jetzt noch in Diskussionen oder Vergleiche einsteige (das hebe ich mir für einen anderen Beitrag auf), sage ich nur noch: Welches Schweinderl hätten’s denn gern? Nur weil ein Produkt oder Angebot das Label „Virtualisierung“ trägt, sagt das alleine noch nichts über seine tatsächliche Beschaffenheit oder Funktionsweise aus. Nicht von den Verkäufern einlullen lassen, immer hinterfragen und auf kompetente Beratung bestehen (und darin investieren), um herauszufinden, was für meine konkreten Anforderungen die passende Lösung ist!