Despliegues de modelo
Solucione los problemas de los despliegues de modelos.
Depuración de un fallo de despliegue de modelo
Después de crear un nuevo despliegue o de actualizar un empleo existente, es posible que aparezca un fallo. En estos pasos se muestra cómo depurar la incidencia:
- En la página inicial del proyecto, seleccione Despliegues de modelo.
- Seleccione el nombre de despliegue de modelo o seleccione el menú para el despliegue de modelo y seleccione Ver detalles. A continuación, compruebe las solicitudes de trabajo
- En Recursos, seleccione Solicitud de trabajo.
Las solicitudes de trabajo aparecen en la parte inferior de la página.
- En la página Información de solicitudes de trabajo, seleccione Mensajes de log.
- Si se producen fallos en los pasos de creación, en Recursos, seleccione Mensajes de error.
- Si la solicitud de trabajo muestra que se ha realizado correctamente, revise los logs de predicción de OCI para identificar los errores.
Los Logs se asocian al despliegue del modelo cuando este se crea.
- Si los registros están asociados, seleccione el nombre del registro de predicción para ver el registro.
- Seleccione Explorar con búsqueda de log.
- Cambie el tiempo del filtro para aumentar el período.
La ruta del entorno conda no es accesible
Asegúrese de que la ruta del entorno conda sea válida y de que ha configurado la política adecuada para un entorno conda publicado. La ruta del entorno conda debe seguir siendo válida y mantenerse accesible durante todo el ciclo de vida del despliegue del modelo para garantizar la disponibilidad y el funcionamiento adecuado del modelo desplegado.
Se ha producido un error al iniciar el servidor web
Active los logs de predicción de despliegue de modelo para ayudarle a depurar los errores. Por lo general, esto sucede cuando el código presenta incidencias o le faltan dependencias necesarias.
Llamada a un fallo de despliegue de modelo
Cuando un despliegue de modelo está en un lifecycleState
activo, se puede llamar al punto final predictivo o de flujo. La respuesta de predicción puede devolver un fallo por muchos motivos. Utilice las siguientes sugerencias para intentar resolver estos errores:
-
Asegúrese de que la entrada transferida en la solicitud tenga un formato JSON válido y coincida con la entrada que espera el modelo.
-
Revise los logs de acceso asociados para comprobar si hay errores.
-
Asegúrese de que el usuario tenga los derechos de acceso correctos.
-
Asegúrese de que
score.py
file no contenga errores. -
Si las predicciones devuelven resultados diferentes (correctos, incorrectos) cada vez que se llama a la predicción para la misma entrada, es posible que los recursos asignados no sean suficientes para proporcionar la predicción del modelo. Puede editar el ancho de banda del equilibrador de carga para aumentarlo, así como el recuento de núcleos informáticos para servir más solicitudes en paralelo.
Demasiadas solicitudes (estado 429)
Si recibe este error al llamar al punto final de inferencia, significa que las solicitudes se están limitando.
La solución depende del tipo de error:
- Se ha superado el límite de ancho de banda del equilibrador de carga
- Edite el despliegue del modelo para aumentar el ancho de banda del equilibrador de carga. Puede calcular el ancho de banda utilizando el número esperado de solicitudes en segundos y el tamaño combinado de la solicitud y la carga útil de respuesta por solicitud.
- Se ha superado el límite de tasa de solicitud de arrendamiento
-
Cada punto final de predicción permite un número específico de solicitudes en un intervalo de tiempo determinado (minutos o segundos) por inquilino por defecto. Para obtener más información, consulte la documentación Invocación de un despliegue de modelo. Abra un ticket de soporte desde la consola de OCI para enviar una solicitud para que se aumente el límite.