Meta Llama 3.1 (405B)
Le modèle meta.llama-3.1-405b-instruct
est disponible pour l'inférence à la demande, l'hébergement dédié et le réglage fin, et offre de meilleures performances que Llama 3.1 70B et Llama 3.2 90B pour les tâches de texte.
Ce modèle de 405 milliards de paramètres est une option hautes performances qui offre vitesse et évolutivité. Par rapport au modèle meta.llama-3.1-70b-instruct
, il peut gérer un volume plus important de demandes et prendre en charge des cas d'utilisation plus complexes. Voici les principales caractéristiques de ce modèle :
- Reconnu comme le plus grand modèle de langage accessible au public au moment de sa publication.
- Convient aux applications d'entreprise et aux initiatives de recherche et développement.
- Présente des capacités exceptionnelles dans des domaines tels que les connaissances générales, la génération de données synthétiques, le raisonnement avancé et la compréhension contextuelle, ainsi que le texte long, la traduction multilingue, le codage, les mathématiques et l'utilisation des outils.
Disponible dans ces régions
- Est du Brésil (São Paulo) (cluster d'IA dédié uniquement)
- Allemagne centrale (Francfort) (cluster d'IA dédié uniquement)
- Japan Central (Osaka) (cluster d'IA dédié uniquement)
- Sud du Royaume-Uni (Londres) (cluster d'IA dédié uniquement)
- Midwest des Etats-Unis (Chicago)
Accéder à ce modèle
Principales fonctionnalités
- Taille du modèle : 405 milliards de paramètres
- Longueur de contexte : 128 000 jetons (invite maximale + longueur de réponse : 128 000 jetons pour chaque exécution)
- Support multilingue : anglais, français, allemand, hindi, italien, portugais, espagnol et thaï
- Invite maximale + longueur de réponse : 128 000 jetons pour chaque exécution.
- Pour l'inférence à la demande, la longueur de la réponse est limitée à 4 000 jetons pour chaque exécution.
- Pour le mode dédié, la longueur de la réponse n'est pas limitée et la longueur du contexte est de 128 000 jetons.
- L'inférence à la demande n'est disponible que dans la région Midwest des Etats-Unis (Chicago). D'autres régions exigent que vous créiez vos propres clusters d'IA dédiés et que vous hébergiez ce modèle sur ces clusters pour l'inférence. Voir la section suivante.
Mode à la demande
Ce modèle est disponible à la demande dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement). Reportez-vous au tableau suivant pour connaître le nom de produit à la demande de ce modèle sur la page de tarification.
Nom du modèle | Nom du modèle OCI | Nom du produit de la page de tarification |
---|---|---|
Meta Llama 3.1 (405B) | meta.llama-3.1-405b-instruct |
Meta Llama 3.1 405B |
-
Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
- Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Ajustement de limite d'accélération dynamique pour le mode à la demande
OCI Generative AI ajuste dynamiquement la limite d'ajustement des demandes pour chaque location active en fonction de la demande de modèle et de la capacité du système afin d'optimiser l'allocation des ressources et de garantir un accès équitable.
Cet ajustement dépend des facteurs suivants :
- Débit maximal actuel pris en charge par le modèle cible.
- Toute capacité système inutilisée au moment de l'ajustement.
- Utilisation du débit historique de chaque location et limites de remplacement indiquées définies pour cette location.
Remarque : En raison de l'ajustement dynamique, les limites de taux ne sont pas documentées et peuvent changer pour répondre à la demande à l'échelle du système.
En raison de l'ajustement de la limite de ralentissement dynamique, nous vous recommandons d'implémenter une stratégie de back-off, qui consiste à retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie de back-off, telle qu'une stratégie de back-off exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des nouvelles tentatives, en respectant les meilleures pratiques du secteur et en améliorant la stabilité et les performances globales de votre intégration au service.
Cluster d'IA dédié pour le modèle
Pour atteindre un modèle via un cluster d'IA dédié dans une région répertoriée, vous devez créer une adresse pour ce modèle sur un cluster d'IA dédié. Pour connaître la taille d'unité de cluster correspondant à ce modèle, reportez-vous au tableau suivant.
Modèle de base | Cluster de réglage fin | Cluster d'hébergement | Informations sur la page de tarification | Demander une augmentation de limite de cluster |
---|---|---|---|---|
|
Non disponible pour le réglage fin |
|
|
|
Si votre location ne dispose pas de suffisamment de limites de cluster pour héberger le modèle Meta Llama 3.1 (405B) sur un cluster d'IA dédié, demandez une augmentation de 4 de la limite dedicated-unit-llama2-70-count
.
Règles d'adresse pour les clusters
- Un cluster d'IA dédié peut contenir jusqu'à 50 adresses.
- Utilisez ces adresses pour créer des alias qui pointent tous vers le même modèle de base ou vers la même version d'un modèle personnalisé, mais pas les deux types.
- Plusieurs points d'extrémité pour le même modèle facilitent leur affectation à différents utilisateurs ou objectifs.
Taille de l'unité de cluster d'hébergement | Règles d'adresse |
---|---|
Large Generic 2 |
|
-
Pour augmenter le volume d'appels pris en charge par un cluster d'hébergement, augmentez le nombre d'instances en modifiant le cluster d'IA dédié. Reportez-vous à Mise à jour d'un cluster d'IA dédié.
-
Pour plus de 50 adresses par cluster, demandez une augmentation de la limite,
endpoint-per-dedicated-unit-count
. Reportez-vous à Demande d'augmentation de limite de service et à Limites de service pour l'IA générative.
Tests de performances du cluster
Consultez les tests d'évaluation des performances du cluster Meta Llama 3.1 (405B) pour différents cas d'utilisation.
Dates de déblocage et de sortie
Modèle | Date de lancement | Date de sortie à la demande | Date de retrait du mode dédié |
---|---|---|---|
meta.llama-3.1-405b-instruct
|
2 024-9-19 | Au moins un mois après la publication du 1er modèle de remplacement. | Au moins 6 mois après la publication du 1er modèle de remplacement. |
Pour obtenir la liste de toutes les lignes de temps du modèle et des détails de sortie, voir Mettre hors service les modèles.
Paramètres de modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.
- Nombre maximal de sèmes de sortie
-
Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.
- Température
-
Niveau de randomité utilisé pour générer le texte de sortie.
Conseil
Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Valeur Top p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissezp
sur 1 pour prendre en compte tous les jetons. - Valeur Top k
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons
top k
les plus probables. Une valeur élevée pourk
génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèlesCohere Command
et -1 pour les modèlesMeta Llama
, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode. - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce dernier apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.
Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Définissez la valeur sur 0 pour désactiver.
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés.
- Prédéfinir
-
Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le modèle de langage volumineux vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs initiales et paramètres aux demandes.
Les valeurs autorisées sont des entiers et l'affectation d'une valeur de départ élevée ou faible n'affecte pas le résultat. L'affectation d'un nombre au paramètre prédéfini est similaire à l'étiquetage de la demande avec un nombre. Le modèle de langage volumineux vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonctionnalité est particulièrement utile pour le débogage et le test. Le paramètre prédéfini n'a pas de valeur maximale pour l'API et, dans la console, sa valeur maximale est 9999. Si la valeur de départ n'est pas indiquée dans la console ou si elle est NULL dans l'API, cette fonctionnalité est désactivée.
Avertissement
Le paramètre prédéfini risque de ne pas produire le même résultat à long terme, car les mises à jour de modèle dans le service OCI Generative AI risquent d'invalider la valeur prédéfinie.