Despliegue de modelo

Siga estos pasos para desplegar modelos con acciones rápidas de IA.

Creación de despliegue de modelo

Puede crear un despliegue de modelo a partir de los modelos base con la etiqueta Ready to Deploy en el explorador de modelos, o con modelos ajustados. Al crear un despliegue de modelo en acciones rápidas de IA, está creando un despliegue de modelo de OCI Data Science, que es un recurso gestionado en el servicio OCI Data Science. Puede desplegar el modelo como puntos finales HTTP en OCI.

Debe tener la política necesaria para utilizar el despliegue de modelos de Data Science. Puede seleccionar la unidad de computación para el despliegue del modelo. Puede configurar el registro para supervisar el despliegue del modelo. El registro es opcional, pero se recomienda encarecidamente que ayude a solucionar los errores con el despliegue de modelos. Debe tener la política necesaria para activar el registro. Consulte Logs de despliegue de modelo para obtener más información sobre los logs. En la opción avanzada, puede seleccionar el número de instancias que desplegar y el ancho de banda del equilibrador de carga.

Consulte Despliegue de modelos en GitHub para obtener más información y consejos sobre el despliegue de modelos.

    1. Navegue hasta Model Explorer.
    2. Seleccione la tarjeta de modelo para el modelo que desea desplegar.
    3. Seleccione Desplegar para desplegar el modelo.
      Se muestra la página Desplegar modelo.
      1. Asigne un nombre al despliegue.
      2. Seleccione una forma de cálculo.
      3. Opcional: seleccione un grupo de logs.
      4. Opcional: seleccione un log de predicción y acceso.
      5. Opcional: seleccione un punto final privado.
        Nota

        Se debe crear un punto final privado como requisito para el recurso de despliegue de modelo.

        La función de punto final privado para el despliegue de modelos solo está activada en el dominio OC1. Para otros dominios, cree una solicitud de servicio para Data Science.

      6. Seleccione Mostrar Opciones Avanzadas.
      7. Actualice el recuento de instancias y el ancho de banda del equilibrador de carga.
      8. Opcional: en Contenedor de inferencia, seleccione un contenedor de inferencia.
      9. Opcional: seleccione Modo de inferencia.
      10. Seleccione Desplegar.
    4. En Acciones rápidas de IA, seleccione Despliegues.
      Se muestra la lista de despliegues de modelo. Para el despliegue creado en el paso 3, espere a que el estado del ciclo de vida esté activo antes de hacer clic en él para utilizarlo.
    5. Desplácese para mostrar la ventana de inferencia.
    6. Introduzca texto en Petición de datos para probar el modelo.
    7. (Opcional) Ajuste los parámetros del modelo según corresponda.
    8. Seleccione Generar.
      La salida se muestra en Respuesta.
  • Para obtener una lista completa de parámetros y valores para los comandos de la CLI de acciones rápidas de AI, consulte AI Quick Actions CLI.

  • Esta tarea no se puede realizar con la API.

Invocar despliegue de modelo en acciones rápidas de IA

Puede llamar al despliegue de modelos en acciones rápidas de IA desde la CLI o el SDK de Python.

Para obtener más información, consulte la sección sobre consejos para el despliegue de modelos en GitHub.

Artefactos de modelos

Dónde encontrar artefactos de modelo.

Cuando se descarga un modelo en una instancia de despliegue de modelo, se descarga en la carpeta /opt/ds/model/deployed_model/<object_storage_folder_name_and_path>.