Cloud-Lösungen

Aktualisiert am 10. März 2025 · 5 Minuten Lesezeit

Wir entwickeln Software, um das Beste aus modernen öffentlichen Cloud-Plattformen herauszuholen.

Was ist Cloud

Cloud-Computing ermöglicht es Unternehmen, Infrastruktur zu mieten, anstatt sie zu besitzen. Unternehmen können ihren Bedarf nach Bedarf anpassen und zahlen pro Sekunde für die Nutzung von Servern. AWS (Amazon), Azure (Microsoft) und GCP (Google) sind die führenden Anbieter in diesem Bereich.

Was kann die Cloud heute tun

Neben dem Hosting von Servern und der Bereitstellung grundlegender Infrastruktur bieten moderne Cloud-Plattformen fortschrittliche Dienste wie Datenbanken, Analytik, maschinelles Lernen und einsatzbereite KI-Modelle. Diese Plattformen fungieren nun als universelle Marktplätze, auf denen verschiedene Systeme betrieben und angeboten werden. Viele Unternehmen sind auf diese Dienste angewiesen, um Daten und Anwendungen zu verwalten. Für einige ist die Cloud entscheidend, um wettbewerbsfähig zu bleiben.

Welche Cloud-Plattform sollten kleine Unternehmen für Analysen verwenden

Looker (ehemals Data Studio) von Google ist einfach einzurichten und verwendet ein echtes Pay-per-Use-Preismodell, das ausschließlich von den für die Analyse benötigten Rechenressourcen abhängt. Es verursacht nahezu keine Kosten im Leerlauf, vermeidet Servergebühren oder monatliche Gebühren pro Benutzer und ist daher ideal für Startups oder explorative Projekte. Looker integriert sich nahtlos in GCP und BigQuery und unterstützt verschiedene andere Datenquellen.

Power BI von Microsoft eignet sich gut für größere Unternehmen, die bereits Power BI-Abonnements und Erfahrung mit Microsoft-Technologien haben. Es integriert sich effektiv in den Microsoft-Stack und bietet zahlreiche Funktionen, die auf die Bedürfnisse von Unternehmen zugeschnitten sind. Es ist eine natürliche Wahl für Analyseprojekte, die von größeren Unternehmen oder Unternehmensabteilungen durchgeführt werden.

Unterscheidet sich datengetriebene Entwicklung von regulärer Programmierung

Datengetriebene Entwicklung basiert stark auf Experimenten, was sie von traditioneller Programmierung unterscheidet. Geschäftserwartungen, Anwendungsfälle, Funktionalitäten und Datenquellen werden iterativ entdeckt, anstatt im Voraus festgelegt zu werden. Schnelle Experimentierzyklen sind entscheidend für den Erfolg und erfordern häufig Cloud-Technologien, um Ergebnisse zu erzielen. Aus diesem Grund werden datengetriebene Lösungen häufig als Cloud-Lösungen entwickelt.

Sollten meine Entwickler in Cloud zertifiziert sein? Welche Zertifizierung?

Relevante Zertifizierungen zu haben, ist im Allgemeinen vorteilhaft, auch wenn sie abgelaufen sind. Zertifizierungen zeigen, dass ein Entwickler alle wichtigen Funktionen einer Cloud-Plattform erkundet hat, nicht nur die, die in früheren Projekten verwendet wurden. Zertifizierungen können jedoch zeitaufwendig sein, und ein Entwickler mit zu vielen Zertifizierungen könnte es vorgezogen haben, Abzeichen zu verdienen, anstatt praktische Erfahrungen zu sammeln.

Cloud-Plattformen bieten vielfältige Werkzeuge und Technologien. Zertifizierungen sollten den Anforderungen der Stelle entsprechen. Ein zertifizierter Datenanalyst hat beispielsweise ganz andere Fähigkeiten als ein DevOps-Ingenieur oder ein Cloud-Architekt.

Sollte der Entwickler alles über die Cloud wissen?

Entwickler haben in der Regel praktische Erfahrungen nur mit einem kleinen Bruchteil dessen, was Cloud-Plattformen (und Computertechnologie im Allgemeinen) bieten. Ein Entwickler kann ein ganzes Jahr damit verbringen, produktiv nur eine Handvoll von Cloud-Funktionen aus Hunderten oder Tausenden zu nutzen. Die Technologielandschaft entwickelt sich schnell, was es nahezu unmöglich macht, über alles auf dem Laufenden zu bleiben. Ein guter Entwickler bleibt sich der Branchentrends bewusst, hält sich auf einem hohen Niveau informiert und lernt spezifische Themen, sobald sie relevant werden.

Wie man eine einmalige Datenanalyse durchführt

Einmalige Datenanalysen oder Berichterstattungen beinhalten oft das Sammeln, Filtern und Aufbereiten von Daten, selbst wenn die Ergebnisse nur einmal verwendet werden. Der erforderliche Aufwand kann mit der Entwicklung eines vollständigen analytischen Produkts vergleichbar sein, das für den langfristigen Einsatz vorgesehen ist.

Diese Projekte erfordern typischerweise schnelle Experimente, unterstützt durch flexible Dashboards, die mit wenigen Klicks angepasst und sofort auf große Mengen an Live-Daten angewendet werden können, um Testergebnisse zu erzielen. Solche Experimente führen oft zu Spitzen im Ressourcenverbrauch, bei denen Cluster von Servern umfangreiche Datensätze analysieren, um ein weiteres potenzielles Muster zu erkunden. Dieser Ansatz unterscheidet sich erheblich von den vorhersehbaren Arbeitsabläufen, die für geplante analytische Berichterstattung erforderlich sind und die Stabilität der Bereitstellung sowie einen kontrollierten Ressourcenverbrauch priorisieren. Infolgedessen sind Cloud-Lösungen zum Standard für die Durchführung einmaliger Analysen geworden.

Google Looker ist ein starker Kandidat für einmalige Analyseprojekte, insbesondere in Kombination mit BigQuery von GCP. BigQuery bietet kostengünstigen Datenspeicher und die Möglichkeit, große Servercluster zu nutzen, um komplexe Abfragen auszuführen, ohne während inaktiver Phasen Kosten zu verursachen.