Cloud Computing im Klartext

von Karola am 25. Juni 2011

Neben den vielen Erklärungsversuchen bin ich bei meiner Recherche nun doch noch auf eine offizielle Definition von „Cloud Computing“ gestoßen. Das Nationale Institut für Standards und Technologie (NIST 01/2011) bestimmt fünf wesentliche Eigenschaften des Cloud Computing:

  • On-Demand-Self-Service (Selbstbedienung und Serviceleistung auf Anforderung)

Alle Dienste sind auf Anforderung und selbständig vom Kunden nutzbar, ohne eine erforderliche
Interaktion mit dem Serviceanbieter.

  • Broad network access (Netzwerkbasierter Zugang)

Die Dienste sind in Echtzeit über ein Netzwerk nutzbar und sollen durch die Verwendung von Standardtechnologien von unterschiedlichen Plattformen abgerufen werden (z.B. Mobiltelefone, Laptops und PDAs).

  • Resource pooling (Ressourcenbündelung)

Die IT-Ressourcen werden gebündelt und für mehrere Nutzer (Mandanten) bereitgestellt. Für jeden Nutzer werden je nach dem tatsächlichen Bedarf, die Ressourcen zugewiesen. Beispiele für Ressourcen sind z.B. Speicher, Netzwerk-Bandbreite und virtuellen Maschinen.

  • Rapid elasticity (Schnelle Anpassungsfähigkeit)

Vorhandene Ressourcen werden schnell und flexibel zur Verfügung gestellt. Die unterschiedlichen Quantitäten erlauben so eine Skalierung von Systemen. Beim Nutzer entsteht die Vorstellung von unendlich verfügbaren Ressourcen.

  • Measured Service (Messbare Dienstleistung)

Die Dienste müssen quantitativ und qualitativ messbar sein, so dass eine nutzungsabhängige Abrechnung und Validierung der Dienstqualität möglich ist. Die Ressourcennutzung wird gesteuert und dokumentiert, so dass sowohl für die Anbieter und als auch für Nutzer der verwendeten Dienste Transparenz geschaffen wird.

Die genannten Eigenschaften wirken womöglich etwas abstrakt. Wir werden die einzelnen Aspekte aber noch genauer anschauen. Welche Service-Modelle gibt es zum Beispiel? Mehr dazu im nächsten Post.

Datenstandort Liechtenstein – Die Cloud im Fürstentum

von Andreas Junginger am 14. Mai 2012

Fakten, die aus dem Standort eines Cloud-Dienstleisters bzw. dessen Systemen ergeben, werden immer mehr zu einem gewichtigen Argument bei der Auswahl eines Anbieters. Nationale Datenschutzbestimmungen und Rechtsordnungen werden vor allem bei der Verarbeitung von sensiblen Daten genauestens unter die Lupe genommen und sind meistens unabhängig von den sonstigen Leistungen eines Anbieters das entscheidende Kriterium.

Das Fürstentum Liechtenstein genießt dank seiner politischen und wirtschaftlichen Stabilität einen guten Ruf im europäischen Raum und wird diesem auch beim Thema Datenschutz gerecht. So ist der Datentransfer ins Ausland dort strengstens geregelt und die Herausgabe jeglicher Daten nur mit einem gerichtlichen Beschluss erlaubt. Aber auch das liberale Ordnungssystem, der Schweizer Franken als stabile Währung, die Zollunion mit der Schweiz und die Mitgliedschaft im europäischen Wirtschaftsraum sind Vorteile, mit denen der Standort Liechtenstein wirbt.

Logo von LieCloud

Von den Vorteilen des Standorts möchte die Firma ByteRaider Informatik Est. Aus Eschen in Liechtenstein nun profitieren und bietet mit der LieCloud den ersten Cloud-Service in und aus Liechtenstein an. Zusammen mit IBM wurde ein IaaS (Infrastructure as a Service) Angebot entwickelt, dass mit hoher Stabilität und Sicherheit beworben wird. Neben einem attraktiven und skalierbaren Preismodell wird auch mit den Datenschutzbestimmungen in Liechtenstein argumentiert. Read More »

Open-Source und Cloud Computing – So funktioniert’s (3): „Eucalyptus” von Eucalyptus Systems Inc.

von Karola am 16. September 2011

Um die Reihe der Cloudies (Top 11 Open-Cloud-Projekte) fortzuführen, möchte ich euch heut Eucalyptus vorstellen. Hinter dem floralen Namen verbirgt sich „Elastic Utility Computing Architecture Linking Your Programs To Useful Systems“. Eucalyptus unterstützt beim Erstellen einer Cloud-Computing-Infrastruktur für spezielle Clustersysteme oder einfache miteinander verbundene Arbeitsplatzrechner. Ein Eucalyptus-System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster-Systemen.

Eucalyptus hat seine Wurzeln an der University of California, Santa Barbara. Es entstand im Department of Computer Science als Forschungsprojekt der Universität. Mittlerweile hat sich daraus die Eucalyptus Systems Inc. herausgebildet. Sie pflegt die Anwendung und entwickelt sie weiter. Eucalyptus Systems Inc. ist der offizielle Ansprechpartner und bietet darüber hinaus weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an. Neben dem kommerziellen Support kann man bei Fragen jedoch auch auf Foren der Eucalyptus-Community zurückgriffen.

Eucalyptus basiert auf gängigen Linux-Tools und grundlegenden Web-Service-Technologien, die eine einfache Installation und Wartung ermöglichen. Mit Hilfe von Eucalyptus können Umgebungen für Cloud Services geschaffen werden, sowohl Public Clouds auf Amazon’s Infrastruktur als auch Private Clouds im hauseigenen Rechenzentrum.

Das System besteht aus fünf Hauptkomponente:

  • Cloud Controller (CLC)
  • Cluster Controller (CC)
  • Node Controller (NC)
  • Walrus (W)
  • Storage Controller (SC)

Quelle: Eucalyptus

Webseite: http://open.eucalyptus.com

SaaS für kleine und mittelständische Unternehmen. Neue Initiative aus Karlsruhe.

von Andreas Junginger am 26. März 2012

Wie die Schaffung eines Netzwerks aussieht, das speziell kleinen und mittelständischen Unternehmen (KMU) Cloud-Services  näher bringen soll, ist schon an dieser Stelle schon beschrieben worden, als das Projekt CLOUDwerker vorgestellt wurde. Die Vorteile, die sich für KMU’s aus SaaS-Angeboten und Cloud Computing ergeben, möchte auch das SaaS4KMU-Konsortium vermitteln, ein Zusammenschluss aus Unternehmen und Forschungseinrichtungen aus der Region Karlsruhe. Die Initiative entstammt dem regionalen Hightech.Unternehmer.Netzwerk CyberForum.

Aus dem SaaS4KMU-Netzwerk heraus, sollen sich durchgängige und aufeinander abgestimmte Lösungen Read More »

Virtualisierung und Konsolidierung – unerlässlich für die Cloud!

von Karola am 26. Juli 2011

Virtualisierung und Konsolidierung von Ressourcen bilden die Grundlage der meisten Cloud-Architekturen. In der IT-Branche bezeichnet Konsolidierung die Vereinheitlichung und Zusammenführung von Systemen, Applikationen, Datenbeständen oder Strategien. Dadurch soll die IT-Infrastruktur flexibler und einfacher werden. Konsolidierung beschreibt die Reduzierung von physischen Server-Systemen und die Ersetzung durch virtuelle Systeme. Konsolidierung ist durch einen hohen Grad an Automatisierung und Standardisierung gekennzeichnet, wie z.B. Provisionierung von Ressourcen, Anwendungs- / Security-Patches sowie Monitoring- und Back-up-Verfahren.

Das Konzept der Virtualisierung erlaubt ebenfalls eine abstrakte, logische Sicht auf physische  Ressourcen. Sie kann auf Server, Datenspeicher, Netzwerke als auch Software angewendet werden. Dabei werden physische Ressourcen in Pools zusammengefasst und gemeinsam verwaltet. Die Ressourcen werden dabei nicht nur von einer Anwendung beansprucht, sondern von mehreren gemeinsam genutzt. Der positive Effekt sind flexiblere Bereitstellung und bessere Kapazitätsauslastung.

Viele Unternehmen setzen Virtualisierungstechnologien zur Optimierung ihrer vielfältigen IT-Ressourcen ein. Virtualisierung beschleunigt die Provisionierung von Anwendungen, wodurch Unternehmen schneller auf vorhersehbare und unvorhersehbare Ereignisse reagieren können. So wird die Unternehmensflexibilität gesteigert. Bei intelligenter Verteilung von Anwendungen auf die verfügbaren Ressourcen lässt sich der Auslastungsgrad sogar auf 70-90 % steigern.

Virtualisierung wird häufig mit Hardware, Servern und Datenspeicher in Verbindung gebracht. Für das Cloud Computing umfasst sie darüber hinaus auch Anwendungen und Client-Dienste. Der Vormarsch von Cloud Computing ist eng mit den Virtualisierungstechnologien verknüpft. Sie ermöglichen im Cloud Computing die Entkopplung von Diensten wie Betriebssystemen und Anwendungen von Hardware. Die neue Flexibilität ermöglicht neue Betriebsmodelle.

Ohne Virtualisierung lässt sich ein physikalischer Server nur einmal für einen bestimmten Cloud-Service verwenden. Im Gegensatz dazu ist durch den Einsatz von Virtualisierung die Aufteilung in mehrere virtuelle Server möglich. Es können somit Cloud Services für mehrere Kunden bereitgestellt werden. Das erlaubt wiederum den Betrieb einer konsolidierten und kostengünstigen IT-Umgebung. Als Anbieter kann man schließlich preisgünstige Angebote für Cloud Services zu Verfügung stellen. Die optimierte Ausnutzung der Ressourcen als Hauptvorteil der Virtualisierung ist für das Cloud Computing besonders wichtig.

Konsolidierung und Virtualisierung ermöglichen die Bereitstellung flexibler Dienste in einer Cloud-Umgebung. Sie sind die Grundlage für die dynamische Aufteilung von Ressourcen. Der Mehrwert von Konsolidierung und Virtualisierung im Cloud Computing zeigt sich in folgenden Punkten:

  • höhere Auslastung der Ressourcen (Server, Storage oder Netzwerk),
  • schnellere Bereitstellung von neuen Systemen
  • niedrigere Kosten der Infrastruktur (Platz, Strom Klima),
  • höhere Mobilität und Verfügbarkeit von Diensten,
  • niedrigere Kosten des Betriebs.

Beide Konzepte dienen dazu, die IT-Infrastruktur eines Unternehmens zu optimieren und gleichzeitig die Kosten für die Bereitstellung von Services und den laufenden Betrieb zu reduzieren.

Open-Source und Cloud Computing – So funktioniert’s (6): „Puppet” von Puppet Labs

von Karola am 14. Oktober 2011

Jeder der sich mit Server-Administration beschäftigt, wird um die Notwendigkeit eines Managementtools wissen. Gerade bei einer großen Zahl von Servern ist ein zentrales Konfigurationsmanagement unabdingbar, um eine Vielzahl von Servern mit fast identischer Konfiguration nebeneinander zu betreiben. Die sechste Anwendung aus der Reihe der Cloudies (Top 11 Open-Cloud-Projekte) dient genau dieser Aufgabe. Puppet ist eine Open-Source-Anwendung für den automatisierten Aufbau und die Konfiguration von Servern. Es können beliebig große Serverlandschaften verwaltet und gewartet werden.

Ähnlich wie bei anderen Anwendungen zum Konfigurationsmanagement greift Puppet auf einen zentralen Server zurück – der Puppet-Master. Darüber werden dann alle Konfigurationen der Clients bzw. Nodes verwaltet. Die Nodes melden sich beim Puppet Master an, und erfragen dort verschlüsselt die aktuelle Konfiguration. Der Master gibt diese Angaben an die Nodes weiter. Gemäß der Vorgaben des Masters spielen die Clients die Konfiguration ein, verändern Rechte, führen Befehle aus, etc. Hier ein paar Beispiele für solche Anweisungen:

  • Dateiübergabe vom Server, die dann an bestimmte Orte kopiert werden
  • Anweisung zur Prüfung von Dateirechten und ggf. Korrektur der Rechte
  • Überprüfung, ob bestimmte Dienste aktiv sind, oder Abfrage von Installationsversionen
  • Anweisung zum Befehle auszuführen
  • usw.

Mit Puppet können verschiedene Aufgaben wie z.B. das Hinzufügen von Nutzern, die Installation von Software, Server-Updates oder die Aktualisierung der Serverkonfiguration auf vielen unterschiedlichen Systemen vorgenommen werden. Um die Systemkonfigurationen umzusetzen, wird eine erklärende Sprache verwendet. Auf diese Weise lassen sich Server-Entwicklungen und andere administrative Aufgaben auf Linux, BSD, Solaris und Mac OS X automatisieren.

Puppet Node Manager

Webseite: http://reductivelabs.com/products/puppet

Standards in der Cloud? Open Cloud Initiative gibt den Startschuss

von Karola am 26. August 2011

Auf der Open Source Convention (OSCON) Ende Juli 2011 machte die Cloud in Portland ihre ersten Schritte in Richtung Standardisierung. Die Open Cloud Initiative (OCI) wurde gegründet und ist ein Zeichen, dass das Thema Cloud Computing auch in der Open-Source-Community auf Interesse stößt.

Logo der Open Cloud Initiative

Im Gründerkreis der Initiative findet man einige wichtige Persönlichkeiten. Sie leiten die OCI und bilden ein Direktorium. Der Bekannteste ist wohl Sam Ramji, der ehemalige Open-Source-Chefstratege von Microsoft. Weitere Initiatoren sind:

  • Evan Prodromou
  • John Mark Walker
  • Marc Fleichmann (Chef von Rising Tide Systems)
  • Noirin Plunkett (Executive Vice President der Apache Software Foundation)
  • Rick Clark (Principal Engineer für Cloud Computing bei Cisco)
  • Shanley Kane (Head of developer relations bei Apigee)
  • Simon Wardley
  • Thomas Uhl (Vorstand der Linux Solutions Group (Lisog) und Gründer der Cloud-Initiative Deutsche Wolke)

Den Posten des Präsidenten hat der Australier Sam Johnston übernommen. Er hat sich schon 2009 mit Standards für die Cloud auseinandergesetzt und veröffentlichte einen „Open Letter to the Community„. Darin skizzierte er seine Gedanken zu einer offenen Cloud und formulierte eine präzisere Definition, was Offenheit im Kontext der Cloud bedeutet. Er kündigte schon damals die Gründung einer Open Cloud Initiative an. Dieses Vorhaben wurde nun erst letzten Monat umgesetzt.

Auf den ersten Blick erscheint eine Symbiose von Cloud Computing und Open Source eher unlogisch. Man könnte meinen, dass das Prinzip vom Open Source nicht zu Cloud Computing passt. Der Grundgedanke von Open Source ist, dass solch eine Software immer komplett mit Quelltext zugänglich ist. Die Quelltexte liegen dem Anwender vor und er kann sie bei Bedarf abändern. Hinter dem Cloud-Computing-Prinzip steckt ein anderer Gedanke. Der Cloud-Nutzer verwendet eine Software als Service. Das bedeutet, dass ihm die Software und die „Rohdaten“ nicht vorliegen. In den meisten Fällen wollen die Anwender eine Cloud-Software lediglich nutzen und nicht im Quellcode rumbasteln.

Demzufolge geht es der OCI nicht darum, die Open-Source-Definition auf die Cloud zu übertragen. Vielmehr will die Initiative die Prinzipien und Anforderungen für ein offenes Cloud-Computing erarbeiten. Die definierten Prinzipien sollen dazu beitragen, dass man Cloud-Produkte an bestimmen Anforderungen messen kann. Außerdem sollen sich Anbieter und Kunden über die Anforderungen an eine Open-Cloud einfacher verständigen können. Salopp gesagt, damit sie die gleiche Sprache sprechen. So können in gemeinsamer Absprache nützliche Produkte und Services entstehen.

Die Open-Cloud-Prinzipien (OCP) hat die OCI auf ihrer Webseite veröffentlicht. Die zwei wesentlichen Forderungen sind:

  • Offene Formate (Definition von Nutzer- und Metadaten)
  • Offene Schnittstellen (Ansteuerung der Funktionen)

Eine weitere wichtige Forderung ist Interoperabilität der Cloud-Services. Nur so können Kunden inklusive ihrer Daten problemlos zwischen den Anbietern wechseln und sind neutral, was die Technik betrifft.

Um Barrierefreiheit für den Datentransfer zu ermöglichen, sind Standardisierungen und ggf. ein offener Prozess notwendig. Im gleichen Zug wird ein uneingeschränkter Wettbewerb zwischen Cloud-Anbietern möglich.

Was bedeutet denn nun Standard in diesem Zusammenhang? Darauf gibt die OCI  auch eine Antwort. Unter offenen Standards ist eine Sammlung von Regelungen zu verstehen, die in allen Details dokumentiert ist. Die Standards sind nur dann offen, wenn sie veröffentlicht und jedem zugänglich sind. Die Offenheit wirkt sich auch auf die Lizenzierung aus. Die Standards sind lizenzfrei und das Copyright erlaubt eine unentgeltliche (Wieder-)Verwendung.

Die Gründung und Verbreitung des Open-Source-Gedanken im Cloud-Bereich soll Öffentlichkeit über offene Cloud-Produkte informieren und die Industrie zur Entwicklung solcher Produkte ermutigen. Für die Zukunft ist auch ein Zertifizierungsprogramm angedacht.

Aktuell sind schon einige Open-Source-Produkte auf dem Cloud-Computing-Markt. Ein paar gute Beispiele werde ich demnächst vorstellen. Es ist abzusehen, dass weitere Firmen auf die „offene Cloud“ aufspringen.

Integrata Kongress 2012 | 10. – 11. Mai, Berlin

von Andreas Junginger am 24. April 2012

Die Intagrata Stiftung setzt sich für die humane Nutzung der Informationstechnologie ein und berät in dieser Ausrichtung, wie der Einsatz von Informationstechnologie zur Verbesserung der Lebensverhältnisse in unserer Gesellschaft beiträgt. Am 10. Und 11. Mai findet in Berlin der 2. Integrata Kongress statt. Das Motto in diesem Jahr – „Mehr Lebensqualität durch IT!“ – ist dabei  der inhaltliche Grundrahmen, der durch weitere Fokusthemen geclustert wird.

Programm 10. Mai

Am ersten Tag des Kongresses werden namenhafte Keynote-Speaker in die Thematik der Veranstaltung einführen. Dafür konnten folgende Referenten gewonnen werden:

Julian Nida-Rümelin, Professor für Philosophie, Staatsminister a.D., Präsident der Deutschen Gesellschaft für Philosophie
Keynote: Mehr Demokratie durch IT

Wolf-Dieter Hasenclever, Honorarprofessor für Wirtschaftsethik und Präsident des Niedersächsischen Landesamts für Lehrerbildung und Schulentwicklung a.D.
Keynote: Bildung und eCommunication – wie sich das Lernen verändert

Franz-Reinhard Habbel, Sprecher des Deutschen Städte- und Gemeindebundes (DStGB), Berlin
Keynote: Zeitenwende – Politik 2012

Programm 11. Mai

Am zweiten Tag des Kongresses wird es parallele Tracks geben, die verschiedene inhaltliche Schwerpunkte besitzen:

Politische Partizipation (Moderation: Michael Mörike, Vorstand Integrata-Stiftung)
Stärkung der Demokratie bei Sicherstellung der weltanschaulichen Neutralität

Qualifizierende Bildung (Moderation: Prof. Dr. Karsten Wendland, Hochschule Aalen)
Befähigung zur Beteiligung an gesellschaftlichen Veränderungen

Befriedigende Arbeit (Moderation: Welf Schröter, Forum Soziale Technikgestaltung)
Schaffung von Arbeits- und Erwerbsmöglichkeiten für ein erfülltes Leben

Gesunde Umwelt (Moderation: Prof. Dr. Marco Mevius)
Bewahrung und Fortführung einer natürlichen Umwelt

Im Rahmen des Tracks „Befreidigende Arbeit“ wird Christoph Schiefer von der BearingPoint GmbH mit seinem Vortrag auf das Thema „Gestaltungspotentiale des Cloud Computing“ eingehen. Im Hintergrund des Kernthemas wird in diesem Vortrag auch die Virtualisierung von Arbeitsprozessen im Kontext von zunehmendem IT Outsourcing und der fortschreitenden Entwicklung im Bereich Cloud Computing angesprochen.

Nähere Informationen und eine ausführliche Programm-Übersicht kann auf den Seiten der Integrata-Stiftung und der DOAG gefunden werden:

Webseite der Integrata-Stiftung

Webseite der DOAG

Cloud Computing für kleine Unternehmen. CLOUDwerker stellt dem Handwerk einen SaaS-Baukasten zur Verfügung.

von Andreas Junginger am 25. Februar 2012

Das enorme Potential, das für Anbieter von Cloud Services in mittelständischen Unternehmen zu sehen ist, lässt sich durch aktuelle Zahlen sehr gut beschreiben. In Deutschland gibt es ca. 975.000 Handwerksbetriebe in ca. 150 Gewerben verteilt. Diese Betriebe tragen mit insgesamt 4,75 Millionen Erwerbstätigen zu 9% der deutschen Bruttowertschöpfung bei.

Cloud Computing wird derzeit aber nur von 15% der deutschen Kleinunternehmen in gewissem Umfang genutzt. Einen Wechsel in den nächsten drei Jahren wird von 26% der Befragten geplant. Die vollständige Auslagerung aller Anwendungen gibt es derzeit bei nur 2% der befragten Unternehmen. Diese Zahlen gehen aus einer Studie von Dell und Intel hervor, die europaweit 1.150 IT-Verantwortliche befragten, die in kleinen Unternehmen mit maximal 100 Beschäftigten arbeiten.

Genau dort setzt das Angebot von CLOUDwerker an. Einem Projekt des Bundesministeriums für Wirtschaft und Technologie mit Vertretern aus der Handwerksbranche, der Wirtschaft und der Wissenschaft. CLOUDwerker bietet dabei die flexible und bedarfsgerechte Auswahl an verschiedensten SaaS-Angeboten für Handwerksbetriebe. So können sich die Unternehmen die Dienste zusammenstellen, die ihnen z.B. als ERP- oder CRM-Systeme zur Verfügung gestellt werden. Diesen Teil der Versorgung übernehmen die Vertreter aus der Wirtschaft. Die Unternehmen 1&1, CAS Software und Haufe-Lexware passen ihre Lösungen an und stellen sie über die gemeinsame CLOUDwerker-Plattform zur Verfügung.

Die wissenschaftlichen Vertreter im Projekt, das Karlsruhe Institute of Technology (KIT) und das Fraunhoferinstitut für Arbeitsentwicklung und Organisation, liefern Konzepte für effiziente und sichere Rahmenbedingungen. Im Mittelpunkt der Forschung und Entwicklung stehen:

  • die technische Sicherheit der Systeme und das Vertrauen in die Datensicherheit
  • eine einfache und offene Konfiguration der Angebote
  • Migrationsszenarien aus bestehenden Anwendungen
  • eine ausgeprägte Kollaborationsunterstützung

Als allgemeiner Kernpunkt des Projekts wurde das Vertrauen in die Angebote ausgemacht. Diese Erkenntnis deckt sich wieder mit Zahlen aus der Studie von Dell und Intel. Dort haben 85% der Befragten Bedenken gegen die Nutzung von Cloud Services geäußert, wobei 28% die Sicherheit und 20% den Datenschutz als Hauptanliegen nannten. Somit liegt der Schwerpunkt von CLOUDwerker definitiv im richtigen Bereich.

Es darf gespannt verfolgt werden, wie das Angebot von CLOUDwerker tatsächlich auch angenommen wird und sich in diesem Bereich auch Möglichkeiten für andere Anbieter ergeben.

Sicher in der Cloud – Sieben Tipps für den Sicherheits-Check

von Andreas Junginger am 10. März 2012

Wenn es um die Auswahl eines Anbieters von Cloud-Services geht, steht erwiesener Maßen das Thema Sicherheit an erster Stelle. Das Auslagern von sensiblen Geschäftsdaten und das Abbilden von internen Geschäftsprozessen, bedürfen ein Höchstmaß an Sicherheit und Vertrauen in den Anbieter. Sicherheitsbereiche, die potentielle Risiken aufweisen, wurden unlängst in einer Studie von Gartner identifiziert. Im folgenden werden sieben Punkte vorgestellt, die bei jedem Anbieter-Check beachtet werden sollten:

Zugangsberechtigungen von Personal

Das vom Anbieter eingesetzte Personal sollte die hohen Ansprüche an die Sicherheit erfüllen. Daher wäre eine Kommunikation zwischen Anbieter und Kunden sehr wünschenswert, die den Personalauswahlprozess erläutert und genaue Informationen über die Rechte, mit denen Administratoren ausgestattet sind, liefert.

Unterstützung bei der Umsetzung rechtlicher Vorgaben

Da ein Kunde die volle Verantwortung für die Sicherheit seiner Daten besitzt, selbst wenn sich diese in einer Cloud befinden, muss auch in diesem Punkt eine Unterstützung seitens des Anbieters erfolgen. Viele Anbieter besitzen zusätzliche Zertifikate und lassen externe Audits problemlos zu.

Physikalischer Speicherort

Ein Anbieter sollte transparent darstellen können, wo sich seine Rechenzentren befinden. Somit können Risiken bezüglich unterschiedlicher Gerichtsbarkeiten in verschiedenen Ländern abgewägt werden.

Datentrennung

Ein klares Konzept zur Trennung von Daten auf Systemen, die auch von anderen Kunden genutzt werden, sollte jeder Anbieter vorweisen können. Auch zum Thema Verschlüsselungsverfahren sollte der Anbieter ein hohes Know-How haben. Verschlüsselungsfehler können große Mengen an Daten unbrauchbar machen und selbst bei normalen Verschlüsselungsverfahren kann es zu Verfügbarkeitsproblemen kommen.

Datensicherung / -wiederherstellung

Auf die Frage nach den Absicherungskonzepten für den schlimmsten aller Fälle sollte jeder Anbieter eine klare Antwort liefern. Der Anbieter muss erklären können, was er leistet, um bei einem totalen Verlust der Daten eine umfassende Wiederherstellung zu garantieren. Auch in welchen Zeiträumen solche Wiederherstellungen ablaufen, sollte durch den Anbieter kommuniziert werden.

Monitoring und Reporting

Das umfassende und effiziente Monitoring von Aktivitäten innerhalb einer Public Cloud ist sehr schwer umzusetzen. Daher sollte ein Anbieter eine große Kompetenz im Monitoring seiner Systeme besitzen.

Geschäftsbeständigkeit

Im Idealfall besteht das Unternehmen, bei dem man seine sensiblen Daten ausgelagert hat, ein Leben lang. Sollte es jedoch wider Erwarten zu einem Konkurs oder einer Übernahme des Anbieters kommen, sollte für diesen Fall eine klare Vereinbarung für den Umgang mit den Kundendaten getroffen werden.