Auswertungen
Bewertung der Modellperformance mit KI-Schnellaktionen
Mit bereitgestellten Modellen können Sie eine Modellbewertung erstellen, um deren Performance zu bewerten. Sie können ein Dataset aus Object Storage auswählen oder aus dem Speicher des Notizbuchs hochladen, in dem Sie arbeiten. Um Datasets aus Ihrem Notizbuch hochzuladen, müssen Sie zunächst Policys einrichten, mit denen die Notizbuchsession Dateien in Object Storage schreiben kann. Sie können Ihre Modellbewertung mit einem Experimentnamen kennzeichnen. Sie können entweder ein vorhandenes Experiment auswählen oder ein neues Experiment erstellen. BERTScore, BLEU Score, Perplexity Score, Text Readability und ROUGE sind die Bewertungsmetriken, die zur Messung der Modellperformance verfügbar sind. Sie können das Modellauswertungsergebnis in Object Storage speichern. Sie können die Parameter für die Modellauswertung festlegen. Unter "Erweiterte Optionen" können Sie die Compute-Instanzausprägung für die Auswertung auswählen und optional die Stoppsequenz eingeben. Darüber hinaus können Sie das Logging mit Ihrer Modellauswertung einrichten, um es zu überwachen. Die Protokollierung ist optional, aber wir empfehlen sie, um Fehler bei der Auswertung zu beheben. Sie benötigen die erforderliche Policy, um das Logging zu aktivieren. Weitere Informationen zum Logging finden Sie im Abschnitt Logs. Sie können die Konfigurationen und Parameter der Bewertung prüfen, bevor Sie sie erstellen.
Wenn Sie zur Registerkarte "Bewertung" zurückkehren, wird der Lebenszyklusstatus der Bewertung Succeeded
angezeigt, wenn die Modellauswertung abgeschlossen ist. Sie können das Bewertungsergebnis anzeigen und eine Kopie des Modellbewertungsberichts auf Ihren lokalen Rechner herunterladen.
Bewertungen können nicht auf ARM-basierten Ausprägungen ausgeführt werden.
Eine vollständige Liste der Parameter und Werte für AI Quick Actions-CLI-Befehle finden Sie unter AI Quick Actions-CLI.
Diese Aufgabe kann nicht mit der API ausgeführt werden.