Sélectionner des concepts d'IA
Explorer les concepts et les termes liés à Select AI.
- Actions
- Profil AI
- Fournisseur d'intelligence artificielle
- Conversations
- Informations d'identification de la base de données
- Hallucination dans le LLM
- IAM
- Amélioration itérative
- Large Language Model (LLM)
- MapReduce
- Métadonnées
- Clone de métadonnées
- Invites en langage naturel
- Network Access Control List (ACL, Liste de contrôle d'accès réseau)
- RAG (Retrieval Augmented Generation, génération augmentée de récupération)
- Recherche de similarité sémantique
- Distance vectorielle
- Index vectoriel
- Magasin de vecteurs
Actions
Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, de répondre à une invite de discussion, de narrer la sortie, d'afficher l'instruction SQL ou d'expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données de leur environnement de base de données.
Reportez-vous à Utilisation du mot-clé AI pour saisir des invites pour connaître les actions Select AI prises en charge.
Rubrique parent : Sélectionner des concepts AI
Profil IA
Rubrique parent : Sélectionner des concepts AI
Fournisseur d'intelligence artificielle
Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Reportez-vous à Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.
Rubrique parent : Sélectionner des concepts AI
Conversations
Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Select AI intègre des conversations à court terme basées sur les sessions afin de générer des réponses contextuelles pour l'invite actuelle en fonction des interactions précédentes. Jusqu'à 10 invites précédentes sont intégrées à la demande actuelle avec des conversations à court terme, créant ainsi une invite augmentée envoyée au LLM. Select AI prend en charge l'utilisation de conversations personnalisables à long terme vous permettant d'utiliser Select AI avec différents sujets sans mélange de contexte, qui peuvent être configurés via des API de conversation à partir du package DBMS_CLOUD_AI. Reportez-vous à Sélectionner des conversations AI.
Rubrique parent : Sélectionner des concepts AI
Informations d'identification de la base de données
Rubrique parent : Sélectionner des concepts AI
Hallucination en LLM
Rubrique parent : Sélectionner des concepts AI
IAM
Rubrique parent : Sélectionner des concepts AI
Affinement itératif
Le raffinement itératif est un processus d'amélioration progressive d'une solution ou d'un modèle à travers des cycles répétés d'ajustements basés sur la rétroaction ou l'évaluation. Il commence par une approximation initiale, le raffine étape par étape et continue jusqu'à ce que la précision ou le résultat souhaité soit atteint. Chaque itération s'appuie sur la précédente, en intégrant des corrections ou des optimisations pour se rapprocher de l'objectif.
Dans la génération d'une synthèse de texte, l'affinement itératif peut être utile pour le traitement de fichiers ou de documents volumineux. Le traitement divise le texte en blocs de taille gérable, par exemple, qui correspondent aux limites de jeton d'un LLM, génère un récapitulatif pour un bloc, puis améliore le récapitulatif en intégrant séquentiellement les blocs suivants.
Cas d'utilisation de l'affinement itératif :
- Convient le mieux aux situations où la précision et la cohérence contextuelles sont essentielles, par exemple lors de la synthèse de textes complexes ou hautement interconnectés où chaque partie s'appuie sur la précédente.
- Idéal pour les tâches à petite échelle où le traitement séquentiel est acceptable.
Reportez-vous à Techniques de synthèse.
Rubrique parent : Sélectionner des concepts AI
grand modèle de langage (LLM, Large Language Model)
Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage semblable à l'humain, ainsi que de code logiciel et de requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles de réseau neuronal sophistiqués de deep learning qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent en contexte.
Rubrique parent : Sélectionner des concepts AI
MapReduce
- Mettre en correspondance : traite les données d'entrée et les transforme en paires clé-valeur.
- Réduire : agrège et récapitule les données mises en correspondance en fonction des clés. MapReduce effectue un traitement parallèle des ensembles de données volumineux.
Dans le cas de Select AI Summarize, MapReduce partitionne le texte en plusieurs blocs et les traite en parallèle et indépendamment, générant des récapitulatifs individuels pour chaque bloc. Ces résumés sont ensuite combinés pour former un résumé global cohérent.
Cas d'utilisation de la réduction de carte :
- Idéal pour les tâches parallèles à grande échelle où la vitesse et l'évolutivité sont des priorités, telles que la synthèse d'ensembles de données ou de documents très volumineux.
- Idéal pour les situations où l'indépendance du bloc est acceptable, et les résumés peuvent être agrégés plus tard.
Reportez-vous à Techniques de synthèse.
Rubrique parent : Sélectionner des concepts AI
Métadonnées
Rubrique parent : Sélectionner des concepts AI
Clone de métadonnées
Rubrique parent : Sélectionner des concepts AI
Invites en langage naturel
Rubrique parent : Sélectionner des concepts AI
Liste de contrôle d'accès réseau (ACL)
Rubrique parent : Sélectionner des concepts AI
Génération augmentée de récupération (RAG).
Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuelle ou automatique) tel que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.
Rubrique parent : Sélectionner des concepts AI
Recherche de similarité sémantique
Rubrique parent : Sélectionner des concepts AI
Distance vectorielle
Rubrique parent : Sélectionner des concepts AI
Index vectoriel
Rubrique parent : Sélectionner des concepts AI
Magasin de vecteurs
Rubrique parent : Sélectionner des concepts AI