OpenAI gpt-oss-20b (Beta)
Pre-General Availability: 2025-09-09
Cette documentation est fournie dans la Version préliminaire de Disponibilité Générale ("Pre-GA") et uniquement à des fins de démonstration et d'usage à titre préliminaire de la version finale. Celle-ci n'est pas toujours spécifique du matériel informatique sur lequel vous utilisez ce logiciel. Oracle Corporation et ses affiliés déclinent toute responsabilité et excluent toute garantie expresse ou implicite quant au contenu de cette documentation. Oracle Corporation et ses affiliés ne sauraient en aucun cas être tenus pour responsables des pertes subies, des coûts occasionnés ou des dommages causés par l'utilisation de cette documentation.
Cette documentation ne constitue en aucun cas un engagement d'Oracle à fournir des composants, du code, des fonctionnalités ou des services. Cette documentation ainsi que la Version préliminaire de Disponibilité Générale ("Pre-GA") des programmes et services Oracle sont susceptibles d'être modifiées à tout moment et ne doivent pas être retenues comme une base d'une quelconque décision d'achat. Le développement, la publication et la mise à disposition des caractéristiques ou fonctionnalités pour la Version préliminaire de Disponibilité Générale ("Pre-GA") des programmes et services Oracle relèvent de la seule discrétion d'Oracle. Toutes les dates de publication et autres prévisions d'événements futurs sont susceptibles de modification. Vous ne devez pas compter sur la disponibilité future de programmes ou services Oracle à venir pour la souscription d'une licence ou d'un contrat de services avec Oracle.
Reportez-vous à Mentions légales Oracle.
openai.gpt-oss-20b
est un modèle de langage à poids ouvert, en texte uniquement, conçu pour des tâches agentiques et de raisonnement puissantes.
Disponible dans ces régions
- Allemagne centrale (Francfort) (à la demande uniquement)
- Centre du Japon (Osaka) (à la demande uniquement)
- Midwest des Etats-Unis (Chicago) (à la demande uniquement)
Principales fonctionnalités
- Nom du modèle dans OCI Generative AI :
openai.gpt-oss-20b
- Taille du modèle : 21 milliards de paramètres
- Disponible à la demande : accédez à ce modèle à la demande, via le playground de test de la console ou l'API.
- Mode texte uniquement : saisissez du texte et obtenez une sortie texte. Les images et les entrées de fichier telles que les fichiers audio, vidéo et de document ne sont pas prises en charge.
- Connaissances : spécialisé dans les tâches avancées de raisonnement et de texte sur un large éventail de sujets.
- Longueur du contexte : 128 000 jetons (la longueur maximale de l'invite + de la réponse est de 128 000 jetons pour chaque exécution). Dans le terrain de jeu, la longueur de la réponse est plafonnée à 16 000 jetons pour chaque exécution.
- Excelle dans ces cas d'utilisation : en raison de ses données d'entraînement, ce modèle est particulièrement performant en STEM (science, technologie, ingénierie et mathématiques), en codage et en connaissances générales. Utilisation pour les cas d'utilisation à faible latence, sur les périphériques, l'inférence locale ou l'itération rapide qui ne nécessitent pas de mémoire importante.
- Appel de fonction : Oui, via l'API.
- A un raisonnement : Oui.
- Limite de connaissances : juin 2024
Pour plus d'informations sur les principales fonctionnalités, reportez-vous à la documentation gpt-oss OpenAI.
Mode à la demande
Le modèle OpenAI gpt-oss-20b (Beta) est disponible uniquement en mode à la demande.
Nom du modèle | Nom du modèle OCI | Obtenir l'accès |
---|---|---|
OpenAI gpt-oss-20b (Beta) | openai.gpt-oss-20b |
Contact Oracle Beta Programs |
-
Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
- Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Ajustement de limite d'accélération dynamique pour le mode à la demande
OCI Generative AI ajuste dynamiquement la limite d'ajustement des demandes pour chaque location active en fonction de la demande de modèle et de la capacité du système afin d'optimiser l'allocation des ressources et de garantir un accès équitable.
Cet ajustement dépend des facteurs suivants :
- Débit maximal actuel pris en charge par le modèle cible.
- Toute capacité système inutilisée au moment de l'ajustement.
- Utilisation du débit historique de chaque location et limites de remplacement indiquées définies pour cette location.
Remarque : En raison de l'ajustement dynamique, les limites de taux ne sont pas documentées et peuvent changer pour répondre à la demande à l'échelle du système.
En raison de l'ajustement de la limite de ralentissement dynamique, nous vous recommandons d'implémenter une stratégie de back-off, qui consiste à retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie de back-off, telle qu'une stratégie de back-off exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des nouvelles tentatives, en respectant les meilleures pratiques du secteur et en améliorant la stabilité et les performances globales de votre intégration au service.
Date de lancement
Modèle | Date de version bêta | Date de sortie à la demande | Date de retrait du mode dédié |
---|---|---|---|
openai.gpt-oss-20b |
2 025-9-9 | Provisoire | Ce modèle n'est pas disponible pour le mode dédié. |
Pour en savoir plus sur l'abandon et la mise hors service du modèle OCI Generative AI, reportez-vous à Mise hors service des modèles.
Paramètres de modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.
- Nombre maximal de sèmes de sortie
-
Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite + de la sortie est de 128 000 jetons pour chaque exécution. Dans le terrain de jeu, le nombre maximal de jetons de sortie est plafonné à 16 000 pour chaque exécution.
Conseil
Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de jetons de sortie maximum. - Température
-
Niveau de randomité utilisé pour générer le texte de sortie. Min : 0, Max : 2, Valeur par défaut : 1
Conseil
Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Valeur Top p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissezp
sur 1 pour prendre en compte tous les jetons. Par défaut : 1 - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce dernier apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire. Définissez la valeur sur 0 pour désactiver. Par défaut : 0
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés. Définissez la valeur sur 0 pour désactiver. Par défaut : 0