Inhaltsverzeichnis:

Wie führe ich AWS TensorFlow aus?
Wie führe ich AWS TensorFlow aus?

Video: Wie führe ich AWS TensorFlow aus?

Video: Wie führe ich AWS TensorFlow aus?
Video: Simple Deep Learning mit AWS SageMaker 2024, November
Anonim

Um TensorFlow zu aktivieren, öffnen Sie eine Amazon Elastic Compute Cloud (Amazon EC2)-Instance des DLAMI mit Conda

  1. Führen Sie für TensorFlow und Keras 2 auf Python 3 mit CUDA 9.0 und MKL-DNN diesen Befehl aus: $ source activate tensorflow_p36.
  2. Führen Sie für TensorFlow und Keras 2 auf Python 2 mit CUDA 9.0 und MKL-DNN diesen Befehl aus:

Läuft TensorFlow entsprechend auf AWS?

TensorFlow ™ ermöglicht Entwicklern einen schnellen und einfachen Einstieg in Deep Learning in der Cloud. Du kann fang an AWS mit einem vollständig verwalteten TensorFlow Erfahrungen mit Amazonas SageMaker, eine Plattform zum Erstellen, Trainieren und Bereitstellen von Modellen für maschinelles Lernen in großem Maßstab.

Wissen Sie auch, was AWS TensorFlow ist? Kategorie: Tensorflow An AWS TensorFlow ist eine Open-Source-Bibliothek für maschinelles Lernen (ML), die weit verbreitet ist, um schwere tiefe neuronale Netze (DNNs) zu entwickeln, die ein verteiltes Training mit mehreren GPUs auf mehreren Hosts erfordern.

Die Frage ist auch, wie führe ich AWS Machine Learning aus?

Erste Schritte mit Deep Learning mit dem AWS Deep Learning AMI

  1. Schritt 1: Öffnen Sie die EC2-Konsole.
  2. Schritt 1b: Wählen Sie die Schaltfläche Instanz starten aus.
  3. Schritt 2a: Wählen Sie das AWS Deep Learning-AMI aus.
  4. Schritt 2b: Wählen Sie auf der Detailseite Weiter.
  5. Schritt 3a: Wählen Sie einen Instanztyp aus.
  6. Schritt 3b: Starten Sie Ihre Instanz.
  7. Schritt 4: Erstellen Sie eine neue private Schlüsseldatei.
  8. Schritt 5: Klicken Sie auf Instanz anzeigen, um Ihren Instanzstatus anzuzeigen.

Wie wird ein TensorFlow-Modell bereitgestellt?

  1. Erstellen Sie Ihr Modell. Importieren Sie das Fashion MNIST-Dataset. Trainieren und bewerten Sie Ihr Modell.
  2. Speichern Sie Ihr Modell.
  3. Untersuchen Sie Ihr gespeichertes Modell.
  4. Servieren Sie Ihr Modell mit TensorFlow Serving. Fügen Sie den TensorFlow Serving-Verteilungs-URI als Paketquelle hinzu: Installieren Sie TensorFlow Serving.
  5. Stellen Sie in TensorFlow Serving eine Anfrage an Ihr Modell. REST-Anfragen stellen.

Empfohlen: