Modelos
Obtenga más información sobre Model Explorer en AI Quick Actions.
En Modelos, puede encontrar Model Explorer que muestra todos los modelos básicos soportados por AI Quick Actions y sus modelos ajustados. Las tarjetas de modelo incluyen una etiqueta para indicar la familia de unidades que están soportadas para el modelo. Introduzca texto en el cuadro de texto Buscar y filtrar modelos para buscar un modelo en la lista. O seleccione el cuadro de texto y seleccione una opción sobre la que filtrar la lista de modelos. En Mis modelos están los modelos básicos almacenados en caché de servicio, los modelos listos para registrar y los modelos que ha registrado. Los modelos en caché de servicio son modelos cuya configuración ha sido verificada por el equipo de Data Science y están listos para su uso sin la descarga de artefactos de modelo. Los modelos listos para registrar son modelos cuyas configuraciones han sido verificadas por el equipo de Data Science y que puede incorporar a acciones rápidas de IA mediante el proceso de registro de modelos. En Modelos ajustados, se muestran los modelos que ha ajustado.
Modelos en Caché de Servicio
Data Science ha probado los modelos en caché del servicio y los artefactos del modelo se descargan en un cubo del almacenamiento de objetos del servicio. Están listos para ser utilizados.
- Almawave/Velvet-14B
- codellama-34b-instruct-hf
- codellama-13b-instruct-hf
- codellama-7b-instruct-hf
-
mistralai/Mixtral-8x7b-v0.1
-
mistralai/Mistral-7b-Instruct-v0.3
- mixtral-8x7b-instruct-v0.1
- mistral-7b-instruct-v0.2
- mistral-7b-v0.1
- mistral-7b-instruct-v0.1
- halcón-7b
- phi-2
- falcon-40b-instruct
- microsoft/Phi-3-vision-128k-instruct
- microsoft/Phi-3-mini-128k-instruct
- microsoft/Phi-3-mini-4k-instruct
- microsoft/Phi-3-mini-4k-instruct-gguf-fp16
- microsoft/Phi-3-mini-4k-instruct-gguf-q4
- microsoft/Phi-4-multimodal-instruct
- microsoft/phi-4-gguf
- microsoft/phi-4
- microsoft/Phi-3.5-vision-instruct
- microsoft/Phi-3.5-MoE-instruct
- microsoft/Phi-3.5-mini-instruct
- meta-llama/Meta-Llama-3.1-8B
- meta-llama/Meta-Llama-3.1-8B-Instruir
- meta-llama/Meta-Llama-3.1-70B
- meta-llama/Meta-Llama-3.1-70B-Instruir
- meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
- meta-llama/Meta-Llama-3.1-405B-FP8
- meta-llama/Llama-3.3-70B-Instruir
- ibm-granite/granite-3.3-2b-instruct
- ibm-granite/granite-3.3-8b-instruct
- ibm-granite/granite-3.3-8b-instruct-GGUF
- ibm-granite/granite-vision-3.2-2b
- ibm-granite/granite-embedding-278m-multilingual
- openai/gpt-oss-120b
- openai/gpt-oss-20b
- Llama-3.2-1B
- Llama-3.2-1B-Instruct
- Llama-3.2-3B
- Llama-3.2-3B-Instruct
- Llama-3.2-11B-Visión
- Llama-3.2-11B-Visión-Instruct
- Llama-3.2-90B-Visión
- Llama-3.2-90B-Visión-Instruct
- Llama-4-Maverick-17B-128E-Instruct-FP8
- Llama-4-Scout-17B-16E
- Llama-4-Scout-17B-16E-Instruct
- lenguaje de granito-3.3-8b
- granite-timeseries-ttm-r1
- granito-4.0-tiny-base-preview
- granito-4.0-tiny-preview
Modelos listos para registrar
Los modelos listos para registrarse han sido probados por Data Science y se pueden utilizar en acciones rápidas de IA mediante el proceso de registro de modelos.
- core42/jais-13b-chat
- core42/jais-13b
- llama-3-70b-instruct
- llama-3-8b-instruct
- meta-llama-3-8b
- meta-llama-3-70b
- ELYZA/ELYZA-japonés-Llama-2-13b-instruir
- ELYZA/ELYZA-japonés-Llama-2-7b-instruir
- ELYZA/ELYZA-japonés-Llama-2-13b
- ELYZA/ELYZA-japonés-Llama-2-7b
- google/gemma-1.1-7b-it
- google/gemma-2b-it
- google/gemma-2b
- google/gemma-7b
- google/codegemma-2b
- google/codegemma-1.1-7b-it
- google/codegemma-1.1-2b
- google/codegemma-7b
- intfloat/e5-mistral-7b-instruct
Trabajar con modelos multimodales
AI Quick Actions soporta el despliegue de modelos multimodales. Para obtener un ejemplo del despliegue y la prueba de un modelo multimodal, consulte los muestras de acciones rápidas de IA en la sección Ciencia de datos en GitHub.
Para trabajar con modelos de carga útil de imagen y multimodales, al crear un despliegue de modelo, en Opciones avanzadas, seleccione /v1/chat/completions
como modo de inferencia.