Evaluaciones

Evaluación del rendimiento del modelo con acciones rápidas de IA

Con los modelos desplegados, puede crear una evaluación de modelo para evaluar su rendimiento. Puede seleccionar un juego de datos de Object Storage o cargar uno desde el almacenamiento del bloc de notas en el que está trabajando. Para cargar juegos de datos desde el bloc de notas, primero debe configurar políticas que permitan a la sesión de bloc de notas escribir archivos en Object Storage. Puede etiquetar la evaluación de modelo con un nombre de experimento. Puede seleccionar un experimento existente o crear uno nuevo. BERTScore, BLEU Score, Perplexity Score, Text Readability y ROUGE son las métricas de evaluación disponibles para medir el rendimiento del modelo. Puede guardar el resultado de la evaluación del modelo en Object Storage. Puede definir los parámetros de evaluación del modelo. En las opciones avanzadas, puede seleccionar la unidad de instancia informática para la evaluación y, opcionalmente, introducir la secuencia de parada. Además, puede configurar el registro con la evaluación de modelo para supervisarlo. El registro es opcional, pero se recomienda que ayude a solucionar los errores con la evaluación. Debe tener la política necesaria para activar el registro. Para obtener más información sobre el registro, consulte la sección Logs. Puede revisar las configuraciones y los parámetros de la evaluación antes de crearla.

Si vuelve al separador Evaluation, verá que el estado del ciclo de vida de la evaluación es Succeeded cuando finalice la evaluación del modelo. Puede ver el resultado de la evaluación y descargar una copia del informe de evaluación de modelo en la máquina local.

Consulte Evaluación en GitHub para obtener más información y consejos sobre las evaluaciones.
Nota

Las evaluaciones no se pueden ejecutar en unidades basadas en ARM.
    1. En Acciones rápidas de AI, haga clic en Evaluaciones.
      Se muestra la página Evaluaciones.
    2. Seleccione Crear evaluaciones.
    3. Introduzca el nombre de la evaluación.
    4. Seleccione el nombre de despliegue de modelo.
    5. (Opcional) Introduzca una descripción de la evaluación.
    6. Para especificar un juego de datos, seleccione Seleccionar un juego de datos existente o Cargar juego de datos desde el almacenamiento de bloc de notas.
    7. (Opcional) Si ha seleccionado Seleccionar un juego de datos existente en el paso 6, seleccione el compartimento.
    8. (Opcional) Si ha seleccionado Seleccionar un juego de datos existente en el paso 6, seleccione la ubicación de Object Storage del juego de datos.
    9. (Opcional) Si ha seleccionado Seleccionar un juego de datos existente en el paso 6, especifique la ruta de Object Storage.
    10. Para especificar un experimento, seleccione Seleccionar un experimento existente o Crear un experimento nuevo. Utilice experimentos para agrupar modelos similares para su evaluación.
    11. Opcional: si seleccionó Seleccionar un experimento existente, seleccione el experimento.
    12. Opcional: si ha seleccionado Crear un nuevo experimento:
      1. Introduzca el nombre del experimento.
      2. Opcional: describa el experimento.
    13. Especifique el cubo de Object Storage en el que desea almacenar los resultados.
      1. Seleccione el compartimento.
      2. Seleccione la ubicación de Object Storage.
      3. Opcional: especifique la ruta de acceso de Object Storage.
    14. Seleccione Siguiente.
    15. (Opcional) En Parámetros, actualice los parámetros de evaluación del modelo a partir de los valores por defecto.
    16. Seleccione Mostrar Opciones Anticipadas.
    17. Especifique la unidad de instancia y la secuencia de parada que desea utilizar.
    18. (Opcional) En Registro, especifique el grupo de logs y el log que desea utilizar.
    19. Seleccione Siguiente.
      Se muestra la página de revisión para la evaluación que desea crear.
    20. Seleccione Enviar para iniciar la evaluación.
    21. Cuando finalice la evaluación y el estado del ciclo de vida esté definido en Correcto, seleccione la flecha junto a la evaluación.
      Se muestran las métricas de evaluación y los parámetros del modelo. Seleccione Descargar para descargar el informe en formato HTML.
  • Para obtener una lista completa de parámetros y valores para los comandos de la CLI de acciones rápidas de AI, consulte AI Quick Actions CLI.

  • Esta tarea no se puede realizar con la API.