Start Cloud Ist Latenz die Achillesferse der Cloud?

Ist Latenz die Achillesferse der Cloud? [Q&A]

5
0


Komplexität des Cloud-Labyrinths

Die Cloud ist wohl die transformativste Unternehmenstechnologie der letzten zwei Jahrzehnte. Doch so leistungsfähig es auch ist, es steht vor einem riesigen Latenzproblem – und die großen Public-Cloud-Anbieter wissen es.

Ihre Rechenzentren können nicht überall und in der Nähe jedes Endbenutzers sein, daher führen die großen Entfernungen zu unvermeidbaren Latenzen.

Die Public Cloud allein kann keine Smart Cities, autonomen Fahrzeuge, Primärspeicher oder andere Anwendungen mit Strom versorgen, die eine vorhersehbare Hochgeschwindigkeitsreaktion auf große Datensätze an vielen Standorten erfordern. Ein selbstfahrendes Auto kann keine Sekunden warten, bis Daten verarbeitet werden, die es an die Cloud sendet, und dann eine Antwort erhält. Aus diesem Grund werden Rechen- und Speicherressourcen zunehmend an den Rand verlagert, um schnellere Reaktionszeiten zu ermöglichen, die für diese Datenanforderungen der nächsten Generation erforderlich sind. Und während Edge Computing reift, sind Technologen bereit, das volle Potenzial der Cloud endlich auszuschöpfen.

Wir sprachen mit Ellen Rubin, CEO und Mitbegründerin von ClearSky-Daten, Anbieter eines On-Demand-Primärspeicherdienstes, der Backup und Disaster Recovery umfasst, um mehr über den Aufstieg des Edge und seine Bedeutung für die Cloud zu erfahren.

BN: Hemmt die Latenz die Cloud-Einführung?

ER: Es hat das Unternehmen sicherlich daran gehindert, die Cloud für Anwendungen zu verwenden, die ein hohes Leistungsniveau erfordern. Latenz ist die Achillesferse der Cloud-Einführung. Es ist unvermeidlich. Große Anbieter wie AWS und Azure verfügen über riesige Rechenzentren außerhalb von Ballungsräumen, sodass es unmöglich ist, in der Nähe aller Benutzer und aller generierten Daten zu sein. Um große Mengen an Archivdaten zu geringen Kosten zu speichern, sind diese Skaleneffekte ideal. Aber für die heutigen Geschäfts- und IoT-Anwendungen ist die resultierende Verzögerung einfach inakzeptabel.

Bei der Übertragung von Daten über Entfernungen von mehr als etwa 120 Meilen bedeuten die durch die Physik auferlegten Einschränkungen eine Latenz von mehr als 10 Millisekunden. Das ist der Punkt, an dem die Leute eine langsame Leistung erkennen können, und es gibt keine Rohre, die groß genug sind, um die Lichtgeschwindigkeit zu überwinden.

BN: Was ist der beste Weg, um diese inhärente Latenz in der Cloud zu eliminieren?

ER: Edge Computing bietet eine hervorragende Gelegenheit, diese Lücke zwischen On-Prem und Cloud zu schließen. Es ist der Latenz-Killer, weil es die Daten in der Nähe des Endbenutzers hält. Das verstehen auch die großen Cloud-Anbieter, gerade wenn es um IoT geht. AWS und Azure bieten Dienste für das IoT, die am Edge ausgeführt werden, aber eine Verbindung zur Cloud herstellen. Darüber hinaus geht AWS Outposts noch einen Schritt weiter und bietet vollständig verwaltete Racks mit von AWS entwickelter Rechen- und Speicherhardware mit VMware, sodass Kunden AWS lokal ausführen und sich dann mit seiner Cloud verbinden können. Schließlich hat Google Cloud kürzlich Stadia angekündigt, eine On-Demand-Streaming-Plattform, die rund 7.500 Edge-Knoten rund um den Globus bereitstellen wird, um sicherzustellen, dass Daten und Verarbeitung so nah wie möglich an den Spielern sind.

Diese Anbieter wissen eindeutig, dass die Cloud für die Leistung den Edge benötigt. Aber der Edge braucht auch die Cloud. IoT, Enterprise Storage, Connected Cars – diese Anwendungsfälle produzieren enorme Mengen an wertvollen Daten, die nicht ewig am Edge gespeichert werden können. Die Cloud ist massiv redundant mit unbegrenzter Skalierbarkeit und von überall zugänglich. Es ist der perfekte Ort zum Speichern, Analysieren und Arbeiten mit großen Datenmengen, solange Latenzen kein Problem darstellen.

BN: Wir haben hauptsächlich über die großen Public Clouds gesprochen, aber es gibt noch viel mehr Cloud-Anbieter. Wie gehen sie das Problem der Cloud-Latenz an? Und was ist mit der Metro-Cloud?

ER: Das ist eine gute Frage, denn das IoT hat ein Wiedererwachen in der Metro-Cloud ausgelöst.

Es besteht ein enormer Bedarf an fortschrittlichen Cloud-Diensten am Rande großer Städte, und traditionelle Public-Cloud-Anbieter greifen zu kurz. Die Eile, diese Lücke zu schließen, führt zum schnellen Aufbau von Mikro-Clouds am Rande sowie zu großen Erweiterungen für Rechenzentrums-, Co-Location- und Konnektivitätsanbieter, die bereits über Einrichtungen in großen städtischen Gebieten verfügen.

Equinix ist ein gutes Beispiel dafür, wie langjährige Co-Location-Anbieter diese wachsende Chance nutzen. Sie haben ihre Co-Locations auf der ganzen Welt sowohl untereinander als auch mit öffentlichen Clouds eng verbunden, sodass sie perfekt positioniert sind, um Edge-Services bereitzustellen.

MetroEdge, ein weiteres Edge-basiertes Cloud-Dienstleistungsunternehmen, mit dem wir kürzlich zusammengearbeitet haben, ist ein gutes Beispiel für ein Mikro-Cloud-Unternehmen. Sie bauen kleine, hochmoderne Rechenzentren in großen Städten, beginnend mit einer Einrichtung auf der South Side von Chicago.

Mit der Verbreitung von IoT, vernetzten Autos und anderen aufkommenden leistungsstarken, datenhungrigen Technologien wird die Bedeutung der Kombination von Edge mit der Cloud nur noch zunehmen. Wenn Unternehmen die Vorteile der Cloud nutzen möchten, müssen sie die Vorteile nutzen, um die erforderliche Leistung zu erzielen.

Bildnachweis: Wavebreakmedia/Depositphotos.com



Vorheriger ArtikelUbuntu-Hersteller Canonical teilt Top-5-Snaps pro Linux-Distribution
Nächster ArtikelSehen Sie, wie Apple seine neuen TV- und Nachrichten-Abonnementdienste vorstellt

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein