Sélectionner des concepts d'IA

Explorer les concepts et les termes liés à Select AI.

Actions

Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, de répondre à une invite de discussion, de narrer la sortie, d'afficher l'instruction SQL ou d'expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données de leur environnement de base de données.

Reportez-vous à Utilisation du mot-clé AI pour saisir des invites pour connaître les actions Select AI prises en charge.

Profil IA

Un profil AI est une spécification qui inclut le fournisseur AI à utiliser et d'autres détails concernant les métadonnées et les objets de base de données requis pour générer des réponses aux invites de langage naturel. Reportez-vous à Procédure CREATE_PROFILE et Attributs de profil.

Fournisseur d'intelligence artificielle

Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Reportez-vous à Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.

Conversations

Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Select AI intègre des conversations à court terme basées sur les sessions afin de générer des réponses contextuelles pour l'invite actuelle en fonction des interactions précédentes. Jusqu'à 10 invites précédentes sont intégrées à la demande actuelle avec des conversations à court terme, créant ainsi une invite augmentée envoyée au LLM. Select AI prend en charge l'utilisation de conversations personnalisables à long terme vous permettant d'utiliser Select AI avec différents sujets sans mélange de contexte, qui peuvent être configurés via des API de conversation à partir du package DBMS_CLOUD_AI. Reportez-vous à Sélectionner des conversations AI.

Informations d'identification de la base de données

Les informations d'identification de base de données sont des informations d'identification d'authentification utilisées pour accéder aux bases de données et interagir avec elles. Ils consistent généralement en un nom d'utilisateur et un mot de passe, parfois complétés par des facteurs d'authentification supplémentaires tels que les jetons de sécurité. Ces informations d'identification sont utilisées pour établir une connexion sécurisée entre une application ou un utilisateur et une base de données, de sorte que seuls les individus ou systèmes autorisés peuvent accéder aux données stockées dans la base de données et les manipuler.

Hallucination en LLM

L'hallucination dans le contexte des grands modèles de langage fait référence à un phénomène où le modèle génère un texte incorrect, absurde ou sans rapport avec l'invite d'entrée. Bien qu'elles résultent de la tentative du modèle de générer un texte cohérent, ces réponses peuvent contenir des informations qui sont fabriquées, trompeuses ou purement imaginatives. L'hallucination peut survenir en raison de biais dans les données d'entraînement, d'un manque de compréhension du contexte ou de limites dans le processus d'entraînement du modèle.

IAM

Oracle Cloud Infrastructure Identity and Access Management (IAM) vous permet de contrôler qui a accès à vos ressources cloud. Vous pouvez contrôler le type d'accès affecté à un groupe d'utilisateurs et les ressources spécifiques auxquelles ces utilisateurs ont accès. Pour en savoir plus, reportez-vous à Présentation d'Identity and Access Management.

Affinement itératif

Le raffinement itératif est un processus d'amélioration progressive d'une solution ou d'un modèle à travers des cycles répétés d'ajustements basés sur la rétroaction ou l'évaluation. Il commence par une approximation initiale, le raffine étape par étape et continue jusqu'à ce que la précision ou le résultat souhaité soit atteint. Chaque itération s'appuie sur la précédente, en intégrant des corrections ou des optimisations pour se rapprocher de l'objectif.

Dans la génération d'une synthèse de texte, l'affinement itératif peut être utile pour le traitement de fichiers ou de documents volumineux. Le traitement divise le texte en blocs de taille gérable, par exemple, qui correspondent aux limites de jeton d'un LLM, génère un récapitulatif pour un bloc, puis améliore le récapitulatif en intégrant séquentiellement les blocs suivants.

Cas d'utilisation de l'affinement itératif :

  • Convient le mieux aux situations où la précision et la cohérence contextuelles sont essentielles, par exemple lors de la synthèse de textes complexes ou hautement interconnectés où chaque partie s'appuie sur la précédente.
  • Idéal pour les tâches à petite échelle où le traitement séquentiel est acceptable.

Reportez-vous à Techniques de synthèse.

grand modèle de langage (LLM, Large Language Model)

Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage semblable à l'humain, ainsi que de code logiciel et de requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles de réseau neuronal sophistiqués de deep learning qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent en contexte.

MapReduce

En général, le modèle de programmation MapReduce permet de traiter des données volumineuses en divisant les tâches en deux phases : Map et Reduce.
  • Mettre en correspondance : traite les données d'entrée et les transforme en paires clé-valeur.
  • Réduire : agrège et récapitule les données mises en correspondance en fonction des clés. MapReduce effectue un traitement parallèle des ensembles de données volumineux.

Dans le cas de Select AI Summarize, MapReduce partitionne le texte en plusieurs blocs et les traite en parallèle et indépendamment, générant des récapitulatifs individuels pour chaque bloc. Ces résumés sont ensuite combinés pour former un résumé global cohérent.

Cas d'utilisation de la réduction de carte :

  • Idéal pour les tâches parallèles à grande échelle où la vitesse et l'évolutivité sont des priorités, telles que la synthèse d'ensembles de données ou de documents très volumineux.
  • Idéal pour les situations où l'indépendance du bloc est acceptable, et les résumés peuvent être agrégés plus tard.

Reportez-vous à Techniques de synthèse.

Métadonnées

Les métadonnées de base de données font référence aux données qui décrivent la structure, l'organisation et les propriétés des tables et des vues de base de données.

Clone de métadonnées

Un clone de métadonnées ou un clone de base de données Autonomous AI crée une copie des métadonnées définissant la base de données ou le schéma, contenant uniquement la structure et non les données réelles. Ce clone inclut les tables, les index, les vues, les statistiques, les procédures et les déclencheurs sans ligne de données. Les développeurs, les testeurs ou ceux qui créent des modèles de base de données trouvent cela utile. Pour en savoir plus, reportez-vous à Clonage, déplacement ou mise à niveau d'une instance de base de données Autonomous AI.

Invites en langage naturel

Les invites de langage naturel sont des instructions ou des demandes lisibles par l'utilisateur fournies pour guider les modèles d'IA générative, tels que les grands modèles de langage. Au lieu d'utiliser des langages ou des commandes de programmation spécifiques, les utilisateurs peuvent interagir avec ces modèles en entrant des invites sous une forme plus conversationnelle ou en langage naturel. Les modèles génèrent ensuite une sortie en fonction de l'invite fournie.

Liste de contrôle d'accès réseau (ACL)

Une liste de contrôle d'accès réseau est un ensemble de règles ou d'autorisations qui définissent le trafic réseau autorisé à passer par un périphérique réseau, tel qu'un routeur, un pare-feu ou une passerelle. Les ACL sont utilisées pour contrôler et filtrer le trafic entrant et sortant en fonction de divers critères tels que les adresses IP, les numéros de port et les protocoles. Ils jouent un rôle crucial dans la sécurité du réseau en permettant aux administrateurs de gérer et de restreindre le trafic réseau pour empêcher les accès non autorisés, les attaques potentielles et les violations de données.

Génération augmentée de récupération (RAG).

La génération augmentée de récupération (RAG) est une technique qui consiste à récupérer des informations pertinentes pour la requête d'un utilisateur et à fournir ces informations à un grand modèle de langage (LLM) pour améliorer les réponses et réduire l'hallucination.

Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuelle ou automatique) tel que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.

Recherche de similarité sémantique

La recherche de similarité sémantique identifie et extrait les points de données qui correspondent étroitement à une requête donnée en comparant les vecteurs de fonctionnalité dans une banque de vecteurs.

Distance vectorielle

La distance vectorielle mesure la similitude ou la dissimilarité entre les vecteurs caractéristiques en calculant la distance entre eux dans un espace multidimensionnel.

Index vectoriel

Un index vectoriel organise et stocke des vecteurs pour permettre une recherche et une extraction de similarité efficaces des données associées.

Magasin de vecteurs

Un magasin de vecteurs comprend des systèmes qui stockent, gèrent et activent la recherche de similarité sémantique impliquant des incorporations de vecteurs. Cela inclut des bases de données vectorielles autonomes et Oracle AI Database 26ai AI Vector Search.