Nvidia hat mit der Veröffentlichung seines Nvidia GPU Cloud Containers (NGC) einen neuen Schritt in der KI-Entwicklung markiert.
Das NGC hilft Entwicklern bei ihren ersten Schritten in der Entwicklung von Deep Learning, indem es den kostenlosen Zugriff auf einen „umfassenden, benutzerfreundlichen und vollständig optimierten Deep-Learning-Software-Stack“ ermöglicht.
Im Moment steht der Cloud-basierte Dienst jedoch ab sofort „für Benutzer der gerade angekündigten Amazon Elastic Compute Cloud (Amazon EC2) P3-Instances mit NVIDIA Tesla V100-GPUs“ zur Verfügung.
Das Unternehmen plant, den Support „bald“ auf andere Plattformen auszuweiten. Allerdings keine Termine genannt.
„Die NVIDIA GPU Cloud demokratisiert KI für eine schnell wachsende globale Benutzerbasis“, sagte Jim McHugh, Vice President und General Manager of Enterprise Systems bei NVIDIA. „NGC befreit Entwickler von der Komplexität der Integration und ermöglicht es ihnen, schnell hochentwickelte neuronale Netze zu erstellen, die die transformativen Kräfte der KI liefern.“
Der Einstieg ist ein dreistufiger Prozess. Melden Sie sich an dieser Link, führen Sie ein optimiertes NVIDIA-Image auf der Cloud-Service-Provider-Plattform aus und rufen Sie Container von NGC ab.
Nvidia sagt, dass zu den wichtigsten Vorteilen der Verwendung von NGC der sofortige Zugriff auf die am häufigsten verwendeten GPU-beschleunigten Frameworks, maximale Leistung und Vorintegration gehören.
Das Unternehmen behauptet auch, dass die in der NGC-Container-Registry verfügbaren Container kontinuierlich weiterentwickelt werden, um sicherzustellen, dass jedes Deep-Learning-Framework auf das schnellstmögliche Training auf den neuesten NVIDIA-GPUs abgestimmt ist.
Es gibt auch eine kurze Video-Erklärung auf YouTube, du kannst sie dir ansehen dieser Link.
Veröffentlicht unter Lizenz von ITProPortal.com, einer Future plc-Publikation. Alle Rechte vorbehalten.
Bildnachweis: Katherine Welles/Shutterstock