Obtenga información sobre el explorador de modelos en Acciones rápidas de IA.
En Modelos, puede encontrar Model Explorer que muestra todos los modelos básicos soportados por AI Quick Actions y sus modelos ajustados. Las tarjetas de modelo incluyen una etiqueta para indicar la familia de unidades que están soportadas para el modelo. Introduzca texto en el cuadro de texto Buscar y filtrar modelos para buscar un modelo en la lista. O seleccione el cuadro de texto y una opción en la que filtrar la lista de modelos. En Mis modelos están los modelos básicos almacenados en caché de servicio, los modelos listos para registrar y los modelos que ha registrado. Los modelos en caché de servicio son modelos cuya configuración ha sido verificada por el equipo de Data Science y están listos para su uso sin la descarga de artefactos de modelo. Los modelos listos para registrar son modelos cuyas configuraciones han sido verificadas por el equipo de Data Science y que puede incorporar a acciones rápidas de IA mediante el proceso de registro de modelos. En Modelos ajustados, se muestran los modelos que ha ajustado.
Modelos en caché de servicio
Data Science ha probado los modelos en caché del servicio y los artefactos del modelo se descargan en un cubo del almacenamiento de objetos del servicio. Están listos para ser utilizados.
Los modelos almacenados en caché de servicio disponibles son:
codellama-34b-instruct-hf
codellama-13b-instruct-hf
codellama-7b-instruct-hf
mistralai/Mixtral-8x7b-v0.1
mistralai/Mistral-7b-Instruct-v0.3
mixtral-8x7b-instruct-v0.1
mistral-7b-instruct-v0.2
mistral-7b-v0.1
mistral-7b-instruct-v0.1
halcón-7b
phi-2
halcón-40b-instruct
microsoft/Phi-3-vision-128k-instruct
microsoft/Phi-3-mini-128k-instruct
microsoft/Phi-3-mini-4k-instruct
microsoft/Phi-3-mini-4k-instruct-gguf-fp16
microsoft/Phi-3-mini-4k-instruct-gguf-q4
meta-llama/Meta-Llama-3.1-8B
meta-llama/Meta-Llama-3.1-8B-Instruir
meta-llama/Meta-Llama-3.1-70B
meta-llama/Meta-Llama-3.1-70B-Instruir
meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
meta-llama/Meta-Llama-3.1-405B-FP8
meta-llama/Llama-3.3-70B-Instruir
Modelos listos para registrar 🔗
Los modelos listos para registrarse han sido probados por Data Science y se pueden utilizar en acciones rápidas de IA mediante el proceso de registro de modelos.
Los modelos listos para registrar son:
core42/jais-13b-chat
core42/jais-13b
llama-3-70b-instruct
llama-3-8b-instruct
meta-llama/Llama-3.2-1B
meta-llama/Llama-3.2-1B-Instruir
meta-llama/Llama-3.2-3B
meta-llama/Llama-3.2-3B-Instruir
meta-llama/Llama-3.2-11B-Visión
meta-llama/Llama-3.2-90B-Visión
meta-llama/Llama-3.2-11B-Instrucción de visión
meta-llama/Llama-3.2-90B-Instrucción de visión
metallama-3-8b
metallama-3-70b
ELYZA/ELYZA-japonés-Llama-2-13b-instruct
ELYZA/ELYZA-japonés-Llama-2-7b-instruct
ELYZA/ELYZA-japonés-Llama-2-13b
ELYZA/ELYZA-japonés-Llama-2-7b
google/gemma-1.1-7b-it
google/gemma-2b-it
google/gemma-2b
google/gemma-7b
google/codegemma-2b
google/codegemma-1.1-7b-it
google/codegemma-1.1-2b
google/codegemma-7b
intfloat/e5-mistral-7b-instruct
Nota
Los modelos meta-llama/Meta-Llama-3.1 y meta-llama/Llama-3.2 no están disponibles en las regiones de la UE.
Trabajar con Modelos Multimodales 🔗
AI Quick Actions soporta el despliegue de modelos multimodales. Para obtener un ejemplo del despliegue y la prueba de un modelo multimodal, consulte los muestras de acciones rápidas de IA en la sección Ciencia de datos en GitHub.
Para trabajar con modelos de carga útil de imagen y multimodales, al crear un despliegue de modelo, en Opciones avanzadas, seleccione /v1/chat/completions como modo de inferencia.