Meta Llama 3 (70B)

Le modèle meta.llama-3-70b-instruct est retiré.

Important

Le modèle meta.llama-3-70b-instruct est à présent retiré. Reportez-vous à la section Suppression des modèles pour obtenir des suggestions de modèles de remplacement.

A propos des modèles abandonnés

Sortie pour le mode à la demande

Lorsqu'un modèle est retiré en mode à la demande, il n'est plus disponible pour utilisation dans le terrain de jeu du service d'IA générative ou via l'API d'inférence d'IA générative.

Retraite pour le mode dédié

Lorsqu'un modèle est retiré en mode dédié, vous ne pouvez plus créer de cluster d'IA dédié pour le modèle retiré, mais un cluster d'IA dédié actif exécutant un modèle retiré continue de s'exécuter. Un modèle personnalisé, qui s'exécute à partir d'un modèle retiré, continue également d'être disponible pour les clusters d'IA dédiés actifs et vous pouvez continuer à créer des clusters d'IA dédiés avec un modèle personnalisé créé sur un modèle retiré. Cependant, Oracle offre un support limité pour ces scénarios, et l'ingénierie Oracle peut vous demander de mettre à niveau vers un modèle pris en charge pour résoudre les problèmes liés à votre modèle.

Pour demander qu'un modèle reste actif plus longtemps que la date de sortie en mode dédié, créez un ticket d'assistance.

Disponible dans ces régions

Si vous exécutez ce modèle sur un cluster d'IA dédié, ce modèle se trouve dans l'une des régions suivantes :

  • Est du Brésil (São Paulo)
  • Allemagne centrale (Francfort)
  • Sud du Royaume-Uni (Londres)
  • Midwest des Etats-Unis (Chicago)

Principales fonctionnalités

  • Taille du modèle : 70 milliards de paramètres
  • Longueur de contexte : 8 000 jetons (invite maximale + longueur de réponse : 8 000 jetons pour chaque exécution.)
  • Connaissances : possède des connaissances générales étendues, de la génération d'idées à l'affinage de l'analyse de texte et à la rédaction de contenu écrit, tels que des courriels, des articles de blog et des descriptions.

Mode à la demande

Le modèle cohere.embed-english-light-image-v3.0 est mis hors service et n'est donc pas disponible en mode à la demande.

Cluster d'IA dédié pour le modèle

Pour atteindre un modèle via un cluster d'IA dédié dans une région répertoriée, vous devez créer une adresse pour ce modèle sur un cluster d'IA dédié. Si vous avez créé un cluster d'IA dédié pour ce modèle, voici les informations sur le cluster :

Modèle de base Cluster de réglage fin Cluster d'hébergement Informations sur la page de tarification Demander une augmentation de limite de cluster
  • Nom du modèle : Meta Llama 3
  • Nom du modèle OCI : meta.llama-3-70b-instruct (retraité)
  • Taille d'unité : Large Generic
  • Unités obligatoires : 2
  • Taille d'unité : Large Generic
  • Unités obligatoires : 1
  • Nom du produit de la page de tarification : Large Meta - Dedicated
  • Pour l'Hébergement, Multiplier le Prix Unitaire : x2
  • Pour le réglage fin, multipliez le prix unitaire : x4
  • Nom de la limite : dedicated-unit-llama2-70-count
  • Pour l'hébergement, demandez une augmentation de limite de : 2
  • Pour le réglage fin, augmentez la limite des demandes de : 4
Remarque

  • L'hébergement du modèle Meta Llama 3 sur un cluster d'IA dédié utilise 2 nombres d'unités de la limite de service, dedicated-unit-llama2-70-count.
  • Affinage du modèle Meta Llama 3 sur un cluster d'IA dédié, utilise 4 nombres d'unités de la limite de service, dedicated-unit-llama2-70-count.

Règles d'adresse pour les clusters

  • Un cluster d'IA dédié peut contenir jusqu'à 50 adresses.
  • Utilisez ces adresses pour créer des alias qui pointent tous vers le même modèle de base ou vers la même version d'un modèle personnalisé, mais pas les deux types.
  • Plusieurs points d'extrémité pour le même modèle facilitent leur affectation à différents utilisateurs ou objectifs.
Taille de l'unité de cluster d'hébergement Règles d'adresse
Large Generic
  • Modèle de base : pour exécuter le modèle ⁇ meta.llama-3-70b-instruct ⁇ sur plusieurs adresses, créez autant d'adresses que nécessaire sur un cluster Large Generic (taille d'unité).
  • Modèle personnalisé : il en va de même pour un modèle personnalisé basé sur meta.llama-3-70b-instruct : créez le nombre requis d'adresses sur un cluster Large Generic (taille unitaire).
Conseil

Tests de performances du cluster

Consultez les tests d'évaluation des performances du cluster Meta Llama 3 (70B) pour différents cas d'utilisation.

Dates de déblocage et de sortie

Modèle Date de lancement Date de sortie à la demande Date de retrait du mode dédié
meta.llama-3-70b-instruct 2 024-6-4 2 024-11-12 2 025-8-7
Important

Pour obtenir la liste de toutes les lignes de temps du modèle et des détails de sortie, voir Mettre hors service les modèles.

Paramètres de modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.

Nombre maximal de sèmes de sortie

Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.

Température

Niveau de randomité utilisé pour générer le texte de sortie.

Conseil

Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Valeur Top p

Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissez p sur 1 pour prendre en compte tous les jetons.

Valeur Top k

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons top k les plus probables. Une valeur élevée pour k génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèles Cohere Command et -1 pour les modèles Meta Llama, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode.

Pénalité de fréquence

Pénalité affectée à un jeton lorsque ce dernier apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.

Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Définissez la valeur sur 0 pour désactiver.

Pénalité de présence

Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés.

Prédéfinir

Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le modèle de langage volumineux vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs initiales et paramètres aux demandes.

Les valeurs autorisées sont des entiers et l'affectation d'une valeur de départ élevée ou faible n'affecte pas le résultat. L'affectation d'un nombre au paramètre prédéfini est similaire à l'étiquetage de la demande avec un nombre. Le modèle de langage volumineux vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonctionnalité est particulièrement utile pour le débogage et le test. Le paramètre prédéfini n'a pas de valeur maximale pour l'API et, dans la console, sa valeur maximale est 9999. Si la valeur de départ n'est pas indiquée dans la console ou si elle est NULL dans l'API, cette fonctionnalité est désactivée.

Avertissement

Le paramètre prédéfini risque de ne pas produire le même résultat à long terme, car les mises à jour de modèle dans le service OCI Generative AI risquent d'invalider la valeur prédéfinie.