Open-Source und Cloud Computing – So funktioniert’s (4): „OpenNebula”

von Karola am 24. September 2011

Im Laufe der nächsten Woche erscheint voraussichtlich die neueste Version von OpenNebula – Version 3.0. OpenNebula gehört ebenfalls zu den Cloudies (Top 11 Open-Cloud-Projekte) von John Willis. Die Anfänge von OpenNebula waren 2005 als Forschungsprojekt, woraus 2008 die erste öffentliche Version entstand. Heute wird das Projekt von der Open-Source-Community weiterentwickelt und vorangetrieben.

Die Open-Source-Anwendung OpenNebula unterstützt die Organisation von verteilten Infrastrukturen in Rechenzentren oder in einem Cluster. Sie gehört demzufolge zur Kategorie „IaaS“ (Infrastructure as a Service). Die entsprechenden Infrastrukturkomponenten wie Server, Speicher und Netzwerktechnologien werden in der Cloud meistens als virtuelle Maschinen bereitgestellt. OpenNebula dient zum Aufbauen und Verwalten von Cloudsystemen und Virtuellen Maschinen. Die umfangreiche Werkzeugsammlung umfasst Funktionen rund um:

  • Integration
  • Speicherung
  • Netzwerk- und Skalierungstechnologien
  • Virtualisierungs- und Monitoringtechnologien
  • Sicherheit.

OpenNebula unterstützt alle Arten des Cloud Computing und ist für den Einsatz bei Private, Public und Hybrid Clouds gleichermaßen geeignet. Die Entwicklergemeinde von OpenNebula verspricht ein hohes Maß an Standardisierung, Interoperabilität und Portabilität. Dadurch haben die Anwender einer OpenNebula-basierten Cloud die Wahl zwischen verschiedenen Cloud-Programmierschnittstellen (APIs) und Virtualisierungssoftware (Hypervisor).

Mit Hilfe der Web-Anwendung Sunstone bietet OpenNebula eine grafische Bedienoberfläche zum Verwalten einer IaaS im Browser. OpenNebula ist ein komplexeres System. Die ausführliche Dokumentation und die aktive Community sind jedoch ein weiterer Pluspunkt für die Anwendung.

Webseite: http://www.opennebula.org

SaaS: Vorteile für den Nutzer (3) – Klar kalkulierbare Betriebskosten

von Karola am 21. September 2011

Das Prinzip von SaaS beruht darauf, dass ein Anwender den webbasierten Zugriff auf die betriebsbereite IT-Anwendung mietet. Er erspart sich die Kosten für Softwarelizenzen und Hardware und zahlt lediglich für den Funktionalitätsumfang der Anwendung. Die schnelle und kostengünstige Implementierung der webbasierten Anwendungen macht das SaaS-Modell besonders attraktiv. Jeder Anwender mit einer Internetverbindung hat jederzeit Zugriff auf die Anwendung und kann „direkt“ nach Vertragsabschluss loslegen.

Die SaaS-Anbieter schaffen transparente und planbare Mietbedingungen, da meistens pro Nutzer und Monat ein Festpreise berechnet wird. Die angebotenen Mietmodelle orientieren sich an der tatsächlichen Nutzung. Mittlerweile gehört es auch zum Standard, dass Aktualisierung und Erweiterung der Anwendung mit dem Servicepaket abgedeckt sind. Das bedeutet für den Kunden, dass keine zusätzlichen Kosten anfallen.

In der Regel ist man als Kunde auch nicht an langfristige Verträge gebunden. Die Kombination aus niedrigen Anschaffungskosten und der geringer Kapitalbindung aufgrund flexibler Mietverträge sprechen für die Nutzung von SaaS-Produkten. Die anfallenden Kosten lassen sich klar kalkulieren. Je nach Bedarf kann man den Service erweitern oder sich einen „passenderen“ Anbieter suchen. SaaS-Anwendungen sind flexiblere als traditionelle, gekaufte Lösungen. Die Flexibilität des Kunden birgt Risiken für den Cloud-Anbieter, weil die gewonnen Kunden auch schnell wieder weg sein könnten. Deshalb streben alle Anbieter einen optimalen Service für ihre Kunden an. Und davon profitieren wiederum die Endkunden.

Standards in der Cloud? Open Cloud Initiative gibt den Startschuss

von Karola am 26. August 2011

Auf der Open Source Convention (OSCON) Ende Juli 2011 machte die Cloud in Portland ihre ersten Schritte in Richtung Standardisierung. Die Open Cloud Initiative (OCI) wurde gegründet und ist ein Zeichen, dass das Thema Cloud Computing auch in der Open-Source-Community auf Interesse stößt.

Logo der Open Cloud Initiative

Im Gründerkreis der Initiative findet man einige wichtige Persönlichkeiten. Sie leiten die OCI und bilden ein Direktorium. Der Bekannteste ist wohl Sam Ramji, der ehemalige Open-Source-Chefstratege von Microsoft. Weitere Initiatoren sind:

  • Evan Prodromou
  • John Mark Walker
  • Marc Fleichmann (Chef von Rising Tide Systems)
  • Noirin Plunkett (Executive Vice President der Apache Software Foundation)
  • Rick Clark (Principal Engineer für Cloud Computing bei Cisco)
  • Shanley Kane (Head of developer relations bei Apigee)
  • Simon Wardley
  • Thomas Uhl (Vorstand der Linux Solutions Group (Lisog) und Gründer der Cloud-Initiative Deutsche Wolke)

Den Posten des Präsidenten hat der Australier Sam Johnston übernommen. Er hat sich schon 2009 mit Standards für die Cloud auseinandergesetzt und veröffentlichte einen „Open Letter to the Community„. Darin skizzierte er seine Gedanken zu einer offenen Cloud und formulierte eine präzisere Definition, was Offenheit im Kontext der Cloud bedeutet. Er kündigte schon damals die Gründung einer Open Cloud Initiative an. Dieses Vorhaben wurde nun erst letzten Monat umgesetzt.

Auf den ersten Blick erscheint eine Symbiose von Cloud Computing und Open Source eher unlogisch. Man könnte meinen, dass das Prinzip vom Open Source nicht zu Cloud Computing passt. Der Grundgedanke von Open Source ist, dass solch eine Software immer komplett mit Quelltext zugänglich ist. Die Quelltexte liegen dem Anwender vor und er kann sie bei Bedarf abändern. Hinter dem Cloud-Computing-Prinzip steckt ein anderer Gedanke. Der Cloud-Nutzer verwendet eine Software als Service. Das bedeutet, dass ihm die Software und die „Rohdaten“ nicht vorliegen. In den meisten Fällen wollen die Anwender eine Cloud-Software lediglich nutzen und nicht im Quellcode rumbasteln.

Demzufolge geht es der OCI nicht darum, die Open-Source-Definition auf die Cloud zu übertragen. Vielmehr will die Initiative die Prinzipien und Anforderungen für ein offenes Cloud-Computing erarbeiten. Die definierten Prinzipien sollen dazu beitragen, dass man Cloud-Produkte an bestimmen Anforderungen messen kann. Außerdem sollen sich Anbieter und Kunden über die Anforderungen an eine Open-Cloud einfacher verständigen können. Salopp gesagt, damit sie die gleiche Sprache sprechen. So können in gemeinsamer Absprache nützliche Produkte und Services entstehen.

Die Open-Cloud-Prinzipien (OCP) hat die OCI auf ihrer Webseite veröffentlicht. Die zwei wesentlichen Forderungen sind:

  • Offene Formate (Definition von Nutzer- und Metadaten)
  • Offene Schnittstellen (Ansteuerung der Funktionen)

Eine weitere wichtige Forderung ist Interoperabilität der Cloud-Services. Nur so können Kunden inklusive ihrer Daten problemlos zwischen den Anbietern wechseln und sind neutral, was die Technik betrifft.

Um Barrierefreiheit für den Datentransfer zu ermöglichen, sind Standardisierungen und ggf. ein offener Prozess notwendig. Im gleichen Zug wird ein uneingeschränkter Wettbewerb zwischen Cloud-Anbietern möglich.

Was bedeutet denn nun Standard in diesem Zusammenhang? Darauf gibt die OCI  auch eine Antwort. Unter offenen Standards ist eine Sammlung von Regelungen zu verstehen, die in allen Details dokumentiert ist. Die Standards sind nur dann offen, wenn sie veröffentlicht und jedem zugänglich sind. Die Offenheit wirkt sich auch auf die Lizenzierung aus. Die Standards sind lizenzfrei und das Copyright erlaubt eine unentgeltliche (Wieder-)Verwendung.

Die Gründung und Verbreitung des Open-Source-Gedanken im Cloud-Bereich soll Öffentlichkeit über offene Cloud-Produkte informieren und die Industrie zur Entwicklung solcher Produkte ermutigen. Für die Zukunft ist auch ein Zertifizierungsprogramm angedacht.

Aktuell sind schon einige Open-Source-Produkte auf dem Cloud-Computing-Markt. Ein paar gute Beispiele werde ich demnächst vorstellen. Es ist abzusehen, dass weitere Firmen auf die „offene Cloud“ aufspringen.

IT-Branche im Wolkenflug – IT im Unternehmen profitiert von Cloud Computing

von Karola am 28. August 2011

Zu diesem Ergebnis kam eine Online-Umfrage von CA Technologies. Obwohl die Umfrage schon im Oktober 2010 durchgeführt wurde, finde ich die Ergebnisse interessant. Sie zeigt die Chancen für neue Tätigkeitsfelder im Bereich Cloud Computing.

Für die Studie wurde europäische und amerikanische IT-Führungskräften befragt, die seit fünf Jahren oder länger im IT-Bereich tätig sind. Ihre Erfahrung im Bereich IT, insbesondere Unternehmenssoftware und/oder Rechenzentrumstechnologien, befähigte die Befragten zu einem soliden Urteil. Unter den Teilnehmern waren 100 amerikanische und 100 europäische IT-Verantwortliche.  und von den USA wurde ein internationales Panel von IT-Profis befragt. Insgesamt fanden 200 Befragungen statt. Die Europäer kamen zu gleichen Teilen  aus Deutschland, Frankreich und Großbritannien.

Nahezu alle Befragten sehen oder spüren den Wandel in der IT-Branche innerhalb der letzten 5 Jahre. Dieser Meinung sind nahezu alle Befragten mit 96 %. Die Befragten gehen sogar noch weiter. 71 % von ihnen glauben, dass sich der Trend zur Veränderung in den nächsten Jahren fortsetzt. Der Grundtenor ist also ein stetiger Wandel der IT.

Die Neuerungen in der Branche bringen andere Aspekte mit sich. Die bisherige Meinung über die Stellung der IT im Unternehmen war bzw. ist, dass sie als Betreiber der IT-Infrastruktur fungieren. Man kann davon ausgehen, dass diese Tätigkeit eher niedriger gewertet wird. Denn mehr als die Hälfte (54 %) der Teilnehmer ist dieser Meinung. Den Befragten sind sich jedoch bewusst, dass sich die Stellung in den nächsten Jahren ändern wird. Die Weiterentwicklung der Branche führt zu neuen Aufgaben und einer höheren Wertung im Unternehmen. Die Befragten sehen die Zukunft der IT in der Verwaltung der IT-Supply-Chain. Supply-Chain-Management beschreibt die Planung und das Management aller Aufgaben bei Lieferantenwahl, Beschaffung und Umwandlung sowie aller Aufgaben der Logistik. Die Hälfte der Befragten gab an, dass eine Zunahme der cloud-basierten Services zu dieser Entwicklung beiträgt. Die die Koordinierung und Zusammenarbeit mit bestehenden und potenziellen Cloud-Anbietern könnte eine neue Aufgabe für die Unternehmens-IT sein. Komplexe interne und externe Prozesse müssen verwaltet werden, dies schafft neue berufliche Möglichkeiten. Das IT-Management erfordert strategisches Geschick und Beratungskompetenz in Entscheidungssituationen für das eigene Unternehmen. Der prophezeite Wandel verlangt den IT-Mitarbeitern neue Qualifikationen ab, insbesondere Geschäfts- und Managementkenntnissen.

Mit steigendem Interesse an Cloud Computing wird auch mehr Fachpersonal gesucht. Stolze 60 % der  Teilnehmer bestätigen, dass der Bedarf an Personal mit Cloud-Computing-Kenntnissen in den vergangenen fünf Jahren zugenommen hat. Auch hier wird eine weitere Steigerung in den nächsten Jahren von 63% der Befragten erwartet. Die Mehrheit (66 %) der Umfrageteilnehmer sieht erhöhtes Potenzial für IT-Fachkräfte, die Cloud-Services managen können. Diese Veränderung ist schon länger spürbar. 72 % der Befragten äußerten, dass ihre IT-Abteilungen im Vergleich zu den vergangenen fünf Jahren heute mehr Stunden mit Anbietermanagement und IT-Verwaltung verbringen.

Für 70 % der Teilnehmer ist das Fazit, dass eine steigende Zahl von Chief Information Officers (CIOs) und erfahrenen IT-Mitarbeitern künftig mehr Kenntnisse aus dem Bereich Business und Management haben wird. Dies bedeutet allerdings, dass insgesamt weniger Technologie-Hintergrund vorhanden ist.

Neben den genannten Vorahnungen sehen die befragten IT-Führungskräfte bereits konkreten Bedarf. Die benötigten Fachkräfte lassen sich durch neue IT-Positionen beschreiben. Die Befragten gehen davon aus, dass sich im Zusammenhang mit Cloud Computing die folgenden Berufsbilder herauskristallisieren könnten:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Tatsache ist, dass Cloud Computing neue Aufgaben mit sich bringt. Bei der Migration von Applikationen, Infrastruktur und sogar von Geschäftsprozessen in die Cloud, werden nun auch IT-Abteilungen zu den Managern einer IT-Lieferkette (Supply Chain). Vielleicht finden auch sie sich schon in einer Rolle wieder?

Praxis in der Cloud: Optimierung der Infrastruktur (1)

von Karola am 30. August 2011

Das Cloud-Computing-Prinzip eignet sich besonders für Situationen, in denen Systeme periodischen oder nicht vorhersagbaren Einflüssen ausgesetzt sind. Die Cloud unterstützt ebenso bei stetigem Wachstum. Ich möchte eine paar Beispiele aus der Praxis vorstellen, um diese allgemeine Beschreibung etwas praxisnaher zu machen. Wo wird Cloud Computing also tatsächlich genutzt? Welche Prozesse werden unterstützt?

Die meisten Unternehmen haben eine eigene IT-Infrastruktur, mehr oder weniger komplex. Diese gilt es zu verwalten und zu aktualisieren, um den immer neuen Marktanforderungen gerecht zu werden. Die fortlaufende Aktualisierung braucht Zeit und muss neben dem Tagesgeschäft erledigt werden. Oft verlieren die Unternehmen den Fokus auf die eigenen Kernkompetenzen. Der Fortschritt im eigenen Unternehmen verlangsamt sich und es kann passieren, dass die Konkurrenten vorbeiziehen. Die Konzentration auf die Kernkompetenz ist wichtig, um sich mit von den Mitbewerbern zu abzuheben und hieraus einen Vorteil zu erzielen.

In einem vergangenen Post habe ich bereits den finanziellen Aufwand für traditionelle IT-Infrastrukturen angesprochen. Sie erfordern finanzielle und auch zeitliche Investitionen, damit die Verwaltung und Skalierung von Ressourcen und Kapazitäten in einer kritischen Situation gewährleistet werden kann. Dadurch sinkt gleichzeitig die Produktivität eines Unternehmens.

Der Einsatz von Cloud Computing vereinfacht die Situation. Ein Unternehmen kann seine IT auslagern und bspw. externe Ressourcen schneller an die eigene Situation anpassen. Der Cloud-Anbieter ist dann verantwortlich für die ständige Wartung. Das Unternehmen gewinnt nicht nur Zeit fürs eigene Kerngeschäft, sondern spart auch noch die Kosten für die firmeninterne IT-Anpassung.

Praxis in der Cloud: Inhalte bereitstellen (2)

von Karola am 30. August 2011

Cloud Computing ist in den unterschiedlichsten Situationen anwendbar. Eine verbreitete Anwendung ist die Cloud zur Bereitstellung von Inhalten jeglicher Art: Bilder, Videos oder sonstige Downloads. Viele Unternehmen stellen ihren Kunden auf der der Webseite Inhalte zur Verfügung, damit die Kunden eigenständig darauf zugreifen können. Die Kunden wünschen sich schnelle und fehlerfreie Downloads. Eine Lösung wäre die Erhöhung des Datendurchsatzes der IT oder die Verringerung der Latenz innerhalb eines Netzwerks. Latenz beschreibt die Zeitverzögerung während der Übertragung eines Datenpakets zwischen zwei Punkten. Im Idealfall sind alle Daten sofort und ohne Verzögerung verfügbar.

Diese  beiden Lösungswege sind jedoch nicht so effektiv, wie die Nutzung von Content Delivery Network (CDN) innerhalb einer Cloud-Computing-Infrastruktur.

CDN ist ein Netz lokal verteilter und über das Internet verbundener Server. Sie dienen speziell zur Auslieferung von Inhalten, insbesondere große Mediendateien. CDN-Knoten sind auf viele Orte verteilt. Bei einer „Anfrage“ (Requests) von Endanwendern nach Inhalten (Content) arbeiten die Knoten zusammen und beschleunigen die Übertragung.

Im CDN werden die Inhalte auf sog. Edge-Server gespeichert. Diese Server befinden sich meist möglichst nah am Anwender. Die Cloud-Technologie unterstützt die verteilten Server des CDN. Durch die kürzere Downloadzeit wird jedes Unternehmen seine Kunden zufrieden stellen können.

Praxis in der Cloud: Hosting von Anwendungen (3)

von Karola am 08. September 2011

Ein Hauptmerkmal von Cloud Computing ist die Auslagerung von IT in unterschiedlicher Form. Es können ganze Infrastrukturen ausgelagert werden, aber auch kleinere Teile wie Datenspeicher und Anwendungen. Anwendungen werden in Form von Software-as-a-Service ausgelagert.

SaaS als Servicemodell des Cloud Computing erleichtert vielen Unternehmen den IT-Alltag. Bis zur Entstehung von SaaS waren alle Unternehmen gezwungen, ihre eigene Infrastruktur für die Nutzung von lokalen Anwendungen aufzubauen. Die Bereitstellung und Wartung nahm neben dem Kerngeschäft viel Zeit in Anspruch. SaaS macht es heutzutage möglich, dass Anwendungen online gehostet und verwendet werden können. Software wird von entsprechenden Anbietern online zur Verfügung gestellt. Die Aufgaben rund um Hosting und Updates übernehmen die Cloud-Anbieter selbst.

SaaS ist das Haupteinsatzgebiet von Cloud Computing. Das ist auch kein Wunder, denn für den Kunden ergeben sich einige Vorteile. Einerseits können Kosten gespart werden, andererseits muss sich ein Unternehmen weniger um die IT-Verwaltung kümmern. Die Erledigung der notwendigen, aber zeitraubenden Tätigkeiten ist im Service inklusive.

Aus diesem Rundumservice ergeben sich hohe Herausforderungen für die Anbieter von SaaS. Sie müssen dafür Sorge tragen, dass auch alle Serviceleistungen einwandfrei funktionieren. Damit dies gewährleistet werden kann, benötigen die Anbieter eine komplexe Infrastruktur zum Hosting aller Anwendungen. Die Infrastruktur sollte skalierbar sein und auch in hohen Performancezeiten standhalten.

Open-Source und Cloud Computing – So funktioniert’s (2): „collectd”

von Karola am 10. September 2011

collectd

Im März dieses Jahres wurde Version 5.0.0 von collectd veröffentlicht. collectd ist ein Open-Source-Daemon, der vorwiegend für UNIX/Linux-Anwender entwickelt wird. Der Daemon sammelt, verarbeitet und speichert Daten über die Systemperformance im Hintergrund und stellt die Daten in unterschiedlichen Formaten bereit, u.a. RRDtool-Format. Mit collectd lassen sich in kleineren, übersichtlichen Netzen ohne viel Mühe Systemstatistiken erheben und grafisch darstellen, z.B. in HTML. Diese Funktionen machen collectd zu einer kostengünstigen, flexiblen, skalier- und erweiterbaren Lösungen für die Performanceanalyse und Kapazitätsplanung. Der Daemon verfügt über eine Plugin-Architektur, die es erlaubt Informationen von einer Vielzahl von Diensten und Servern wie Apache, memcache und Linux-VServer zu sammeln.

Beispielgraph einer Systemstatistik mit collectd (Quelle: collectd)

Beispielgraph einer Systemstatistik mit collectd (Quelle: collectd)

collectd ist ein effizientes C Programm, das wenig in der Entwicklungsumgebung voraussetzt. Damit bleibt dem Anwender eine unübersichtliche Modulflut erspart.

Während der Analyse sammelt collectd wichtige Leistungsdaten für die Systemstatistik. Solche Leistungsdaten sind z. B.:

  • CPU-Auslastung
  • Speichernutzung
  • Netzwerkverkehr

Die gesammelten Informationen unterstützen bei der Performanceanalyse und Kapazitätsplanung. Für ein komplettes Monitoring reicht es jedoch nicht ganz aus. collectd ist also eine ideale Ergänzung für bereits vorhandene System-Management-Anwendungen.

Webseite: http://collectd.org

Praxis in der Cloud: High Performance Computing (4)

von Karola am 12. September 2011

Viele Unternehmen stehen heutzutage vor der Herausforderung, dass sie bei der Lösung von Problemen große Mengen an Daten verarbeiten. Sie benötigen u. a. hohe Rechenleistungen oder große Speicherkapazitäten. Solche Prozesse bzw. Rechnerleistungen werden als High Performance Computing (HPC) bezeichnet. Der Bedarf an hohen Rechnerleistungen ist in den letzten Jahren stark angestiegen. Vor allem Unternehmen aus den Bereichen der Medien, Pharma- und Medizintechnik sowie Finanzdienstleitungen sind davon betroffen.

Der hohe Bedarf betrifft jedoch oft nur Projektzeiträume und ist kein Dauerzustand. Trotzdem muss sich jedes Unternehmen an diese Umstände flexibel anpassen. Der Prozess wird erschwert durch Verwaltungsaufgaben wie Budgetabsegnung, die Festlegung der Zeit für die Rechenzentren, die Einrichtung einer neuen Server, die Verwaltung der Mitarbeiter, den Erwerb und die Bereitstellung von Geräten und vieles mehr. Es kann also passieren, dass ein Unternehmen durch die vorhandene Infrastruktur oder das Budget eingeschränkt ist. Dann reichen die Kapazitäten oder Zeitvorgaben des Projekts nicht aus, um die notwendigen Schritte einzuleiten. Für jedes einzelne Projekt werden die Kapazitäten der Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall fehlen die nötigen finanziellen und zeitlichen Mittel, um das „IT-Upgrate“ gemäß den Anforderungen durchzuführen.

Ein weiterer potenzieller Störfaktor ist der nötige Aufwand zur Errichtung und dem Erweitern der Serverumgebungen. Hard- und Software beschaffen sich nicht durch Zauberhand, sondern müssen im Projektverlauf geordert werden. Die erweiterte Infrastruktur muss verwaltet werden (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse, etc.), um den Geschäftszweck zu erfüllen. Im Zuge dessen benötigen einige Mitarbeiter entsprechende Fortbildung. Dafür wird wieder zusätzliche Zeit benötigt.

Sobald das Projekt dann abgeschlossen ist, stehen neue organisatorische Aufgaben an. Um die Ressourcen nicht ungenutzt zu lassen, müssen sie verwaltet und neuen Projekten oder Aufgaben zugewiesen werden. Wird dies nicht umgehend gemacht, dann sind die verfügbaren Ressourcen ungenutzt und verursachen Kosten ohne einen Mehrwert zu leisten. Das wäre reine Verschwendung.

Viele der beschriebenen Probleme und Knackpunkte können mittels Cloud Computing minimiert werden. Cloud Computing unterstützt Projekte aus dem Bereich des HPC bedarfsgerecht und kosteneffizient. Viele Cloud-Anbieter ermöglichen es, die IT-Ressourcen eines Unternehmens bspw. in einer einzigen leistungsstarken Private Cloud zu vereinen. Dadurch können Kunden noch einfacher auf Rechenleistung zugreifen. Die unternehmensinternen Systemadministratoren werden im gleichen Zug bei der IT-Verwaltung entlasten. In der Cloud können freie Ressourcen dann je nach geschäftlichen oder technischen Anforderungen flexibel eingesetzt werden.

SaaS: Vorteile für den Nutzer (2) – Eigene IT wird entlastet

von Karola am 15. September 2011

Das Cloud-Servicemodell SaaS zeichnet sich dadurch aus, dass man über ein Netzwerk direkt auf eine Software zugreifen kann. Im Klartext heißt das, man benötigt lediglich einen Internetzugang, um mit der Software zu arbeiten und die Funktionen zu nutzen. Die Bereitstellung über das Internet bedeutet weniger Aufwand für die Implementierung der Anwendung. Im Prinzip braucht ein SaaS-Nutzer keine bzw. minimale IT-Kenntnisse und erst recht keinen IT-Spezialisten, um die Anwendung zu verwenden.

Sicher kennt jeder das lange Prozedere, wenn man auf dem privaten Rechner eine Software zum Laufen bringen möchte. Die gekaufte Software muss installiert und der PC dafür eingerichtet werden. Dieser Aufwand vervielfacht sich erheblich, wenn man die IT-Umgebung eines ganzen Unternehmens auf den neusten Stand bringen möchte. Die Einführung und Nutzung traditioneller Software bedeutet erhöhten Personalaufwand für Installation, Wartung, Updates und ggf. Migration.

Mit SaaS-Lösungen kann hingegen der Eigenaufwand für den IT-Betrieb minimiert werden. Die Cloud-Anwendung ist ohne jegliche Implementierung sofort über das Internet einsetzbar. Die Aufwandsminimierung beschränkt sich jedoch nicht nur auf die Implementierung. Im gesamten Lebenszyklus der Anwendung sind Entlastungen möglich: technische Betreuung/Support, Wartung, Aktualisierung, Patches und Datensicherung. Es gehört zum Service, dass alle IT-relevanten Vorgänge vom Dienstleister übernommen werden. Auch der Support wird direkt durch die dortigen Experten geleistet. Meist sind auch regelmäßige Updates und Upgrades im Service des Anbieters inbegriffen.

Diese Bereitstellungsart bringt erhebliche Vorteile für die unternehmensinterne IT-Abteilung. Wenn man erst einmal Kunde eines Cloud-Anbieters ist, muss man sich als Kunde nicht um den Betrieb der Anwendung oder der dazugehörigen IT-Umgebung kümmern. Dies schont die eigenen personellen Ressourcen – und das nicht nur bei der Einführung!