Esta página ha sido traducida por una máquina.

Modelos

Obtenga información sobre el explorador de modelos en Acciones rápidas de IA.

En Modelos, puede encontrar Model Explorer que muestra todos los modelos básicos soportados por AI Quick Actions y sus modelos ajustados. Las tarjetas de modelo incluyen una etiqueta para indicar la familia de unidades que están soportadas para el modelo. Introduzca texto en el cuadro de texto Buscar y filtrar modelos para buscar un modelo en la lista. O seleccione el cuadro de texto y una opción en la que filtrar la lista de modelos. En Mis modelos están los modelos básicos almacenados en caché de servicio, los modelos listos para registrar y los modelos que ha registrado. Los modelos en caché de servicio son modelos cuya configuración ha sido verificada por el equipo de Data Science y están listos para su uso sin la descarga de artefactos de modelo. Los modelos listos para registrar son modelos cuyas configuraciones han sido verificadas por el equipo de Data Science y que puede incorporar a acciones rápidas de IA mediante el proceso de registro de modelos. En Modelos ajustados, se muestran los modelos que ha ajustado.

Modelos en caché de servicio

Data Science ha probado los modelos en caché del servicio y los artefactos del modelo se descargan en un cubo del almacenamiento de objetos del servicio. Están listos para ser utilizados.

Los modelos almacenados en caché de servicio disponibles son:
  • codellama-34b-instruct-hf
  • codellama-13b-instruct-hf
  • codellama-7b-instruct-hf
  • mistralai/Mixtral-8x7b-v0.1

  • mistralai/Mistral-7b-Instruct-v0.3

  • mixtral-8x7b-instruct-v0.1
  • mistral-7b-instruct-v0.2
  • mistral-7b-v0.1
  • mistral-7b-instruct-v0.1
  • halcón-7b
  • phi-2
  • halcón-40b-instruct
  • microsoft/Phi-3-vision-128k-instruct
  • microsoft/Phi-3-mini-128k-instruct
  • microsoft/Phi-3-mini-4k-instruct
  • microsoft/Phi-3-mini-4k-instruct-gguf-fp16
  • microsoft/Phi-3-mini-4k-instruct-gguf-q4
  • meta-llama/Meta-Llama-3.1-8B
  • meta-llama/Meta-Llama-3.1-8B-Instruir
  • meta-llama/Meta-Llama-3.1-70B
  • meta-llama/Meta-Llama-3.1-70B-Instruir
  • meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
  • meta-llama/Meta-Llama-3.1-405B-FP8
  • meta-llama/Llama-3.3-70B-Instruir

Modelos listos para registrar

Los modelos listos para registrarse han sido probados por Data Science y se pueden utilizar en acciones rápidas de IA mediante el proceso de registro de modelos.

Los modelos listos para registrar son:
  • core42/jais-13b-chat
  • core42/jais-13b
  • llama-3-70b-instruct
  • llama-3-8b-instruct
  • meta-llama/Llama-3.2-1B
  • meta-llama/Llama-3.2-1B-Instruir
  • meta-llama/Llama-3.2-3B
  • meta-llama/Llama-3.2-3B-Instruir
  • meta-llama/Llama-3.2-11B-Visión
  • meta-llama/Llama-3.2-90B-Visión
  • meta-llama/Llama-3.2-11B-Instrucción de visión
  • meta-llama/Llama-3.2-90B-Instrucción de visión
  • metallama-3-8b
  • metallama-3-70b
  • ELYZA/ELYZA-japonés-Llama-2-13b-instruct
  • ELYZA/ELYZA-japonés-Llama-2-7b-instruct
  • ELYZA/ELYZA-japonés-Llama-2-13b
  • ELYZA/ELYZA-japonés-Llama-2-7b
  • google/gemma-1.1-7b-it
  • google/gemma-2b-it
  • google/gemma-2b
  • google/gemma-7b
  • google/codegemma-2b
  • google/codegemma-1.1-7b-it
  • google/codegemma-1.1-2b
  • google/codegemma-7b
  • intfloat/e5-mistral-7b-instruct
Nota

Los modelos meta-llama/Meta-Llama-3.1 y meta-llama/Llama-3.2 no están disponibles en las regiones de la UE.

Trabajar con Modelos Multimodales

AI Quick Actions soporta el despliegue de modelos multimodales. Para obtener un ejemplo del despliegue y la prueba de un modelo multimodal, consulte los muestras de acciones rápidas de IA en la sección Ciencia de datos en GitHub.

Para trabajar con modelos de carga útil de imagen y multimodales, al crear un despliegue de modelo, en Opciones avanzadas, seleccione /v1/chat/completions como modo de inferencia.