|
access_protocol
|
Spécifie le type de table Apache Iceberg, tel qu'AWS ou OCI Object Storage, et les informations utilisées pour créer la table externe, par exemple les informations d'un catalogue de données ou d'un URI de métadonnées direct.
|
Pour plus d'informations sur la syntaxe access_protocol, reportez-vous à la procédure CREATE_EXTERNAL_TABLE pour Apache Iceberg.
|
|
blankasnull
|
Lorsque cette option est définie sur true, les champs composés d'espaces sont chargés comme NULL.
|
blankasnull : true
Valeur par défaut : False
|
|
characterset
Valide avec format JSON et COPY_DATA
|
Spécifie le jeu de caractères des fichiers source.
|
characterset : chaîne
Valeur par défaut : jeu de caractères de base de données
|
|
columnpath
Utiliser uniquement avec format JSON et COPY_DATA
|
Tableau d'expressions de chemin JSON qui correspondent aux champs à extraire des enregistrements JSON. Chacune des expressions de chemin JSON du tableau doit suivre les règles décrites dans Expressions de chemin SQL/JSON.
A utiliser uniquement avec le format JSON et DBMS_CLOUD.COPY_DATA.
|
Tableau JSON d'expressions de chemin json exprimées sous forme de chaîne. Par exemple : 'columnpath' value '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'
|
|
compression
Option valide avec les données JSON
|
Spécifie le type de compression du fichier source.
Le format d'archivage ZIP n'est pas pris en charge.
La spécification de la valeur auto recherche les types de compression : gzip, zlib, zstd, bzip2.
|
compression: auto|gzip|zlib|zstd|bzip2
Valeur par défaut : valeur NULL : aucune compression.
|
|
conversionerrors
|
Si une ligne est rejetée en raison d'erreurs de conversion du type de données, les colonnes associées sont stockées comme NULL ou la ligne est rejetée.
|
conversionerrors : reject_record | store_null
Valeur par défaut : reject_record
|
|
dateformat
|
Indique le format de date dans le fichier source. L'option de format AUTO recherche les formats suivants :
J
MM-DD-YYYYBC
MM-DD-YYYY
YYYYMMDD HHMISS
YYMMDD HHMISS
YYYY.DDD
YYYY-MM-DD
|
dateformat : chaîne
Valeur par défaut : format de date de base de données
|
|
delimiter
|
Indique le délimiteur de champ.
Pour utiliser un caractère spécial comme délimiteur, spécifiez la valeur HEX du code ASCII du caractère. Par exemple, le caractère de tabulation suivant est spécifié comme délimiteur :
format => json_object('delimiter' value 'X''9''')
|
delimiter : caractère
Valeur par défaut | (caractère de pipe)
|
|
detectfieldorder
|
Indique que les champs des fichiers de données externes sont dans un ordre différent de celui des colonnes de la table. Détectez l'ordre des champs en utilisant la première ligne de chaque fichier de données externe et mettez-le en correspondance avec les colonnes de la table. Les noms de champ dans les fichiers de données externes sont comparés de manière non sensible à la casse avec les noms des colonnes de la table.
Cette option de format s'applique aux procédures suivantes :
-
DBMS_CLOUD.COPY_DATA
-
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
-
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
-
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
Restrictions pour detectfieldorder :
-
Les noms de champ dans le fichier de données doivent apparaître sur la première ligne d'enregistrement et ne doivent pas contenir d'espaces entre les noms de champ.
-
Le délimiteur de champ dans l'enregistrement de noms de champ doit être identique au délimiteur de champ pour les données du fichier.
-
Les noms de champ entre guillemets ne sont pas pris en charge. Les noms de champ dans les fichiers de données sont comparés, de manière non sensible à la casse, aux noms des colonnes de table externe.
-
Les délimiteurs de champ imbriqués ne sont pas autorisés dans les noms de champ.
-
Le nombre de colonnes dans la table doit correspondre au nombre de champs dans les fichiers de données.
-
Cette option de format n'est pas applicable aux formats Bigdata ou Oracle Data Pump, car ces formats contiennent des informations précises sur les métadonnées de colonne au format de fichier binaire.
Les formats de texte, CSV, JSON, Parquet ou XML peuvent bénéficier de cette détection automatique des demandes d'intervention terrain lorsque la première ligne contient les noms de champ.
Pour plus d'informations, reportez-vous à FIELD NAMES et à la description de ALL FILES.
|
detectfieldorder: true
Valeur par défaut : false
|
|
enablelogs
|
L'option de format enablelogs est utilisée avec les procédures DBMS_CLOUD suivantes :
-
COPY_DATA
-
COPY_COLLECTION
-
EXPORT_DATA
enablelogs indique une valeur booléenne. Lorsqu'elle est définie sur TRUE, les journaux sont générés. Lorsqu'elle est définie sur FALSE, les journaux ne sont pas générés.
Par exemple : format => JSON_OBJECT('enablelogs' value FALSE) |
enablelogs: false
Valeur par défaut : true.
|
|
encryption
|
L'option de format encryption indique les options de cryptage et de décryptage permettant d'exporter et d'importer des données vers et depuis la banque d'objets.
Utilisez encryption pour indiquer les paramètres suivants pour crypter et décrypter :
-
user_defined_function : indique une fonction entièrement qualifiée définie par l'utilisateur pour décrypter ou crypter le BLOB spécifié (objet LOB binaire). Elle renvoie un BLOB décrypté ou crypté. user_defined_function s'exclut mutuellement avec d'autres paramètres pour encryption.
Par exemple, ADMIN.DECRYPTION_CALLBACK.
-
type : indique l'algorithme de cryptage DBMS_CRYPTO à décrypter ou à crypter.
type accepte les valeurs au format Algorithmes de cryptage de bloc + modificateurs de chaînage de cryptage de bloc + modificateurs de remplissage de cryptage de bloc.
Les algorithmes de cryptage de bloc pris en charge sont les suivants :
Modificateurs de chaînage de chiffrement de bloc pris en charge :
-
DBMS_CRYPTO.CHAIN_CBC
-
DBMS_CRYPTO.CHAIN_CFB
-
DBMS_CRYPTO.CHAIN_ECB
-
DBMS_CRYPTO.CHAIN_OFB
Modificateurs de remplissage de chiffrement de bloc pris en charge :
-
DBMS_CRYPTO.PAD_PKCS5
-
DBMS_CRYPTO.PAD_NONE
-
DBMS_CRYPTO.PAD_ZERO
-
DBMS_CRYPTO.PAD_ORCL
Les valeurs par défaut des modificateurs de chaînage de chiffrement de bloc et des modificateurs de remplissage de chiffrement de bloc sont DBMS_CRYPTO.CHAIN_CBC et DBMS_CRYPTO.PAD_PKCS5, si vous n'indiquez pas de valeurs pour ces paramètres.
L'option de format encryption est utilisée avec les procédures DBMS_CLOUD suivantes :
Par exemple : format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED')) |
encryption:valueOù value est une chaîne JSON qui fournit des paramètres supplémentaires pour le cryptage :
type : valeur
Spécifie le type de chiffrement.
credential_name: value
Indique les informations d'identification utilisées pour stocker la clé de cryptage. user_defined_function: valueSpécifie une fonction entièrement qualifiée définie par l'utilisateur pour déchiffrer ou chiffrer le BLOB spécifié (objet volumineux binaire).
|
|
endquote
|
Les données peuvent être placées entre deux délimiteurs, indiqués par quote et endquote. Les caractères quote et endquote sont enlevés lors du chargement lorsqu'ils sont indiqués.
Par exemple : format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’) |
endquote:character
Valeur par défaut : NULL, ce qui signifie non endquote.
|
|
escape
|
Le caractère "\" est utilisé comme caractère d'échappement lorsqu'il est indiqué.
|
escape : true
Valeur par défaut : false
|
|
field_list
|
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leur type de données sont déterminés par le paramètre column_list. Pour plus d'informations, reportez-vous à field_list dans Utilitaires Oracle Database 19c ou Utilitaires Oracle AI Database 26ai.
|
La valeur par défaut est NULL
|
|
ignoreblanklines
Option valide avec les données JSON
|
Les lignes vides sont ignorées lorsque la valeur est True.
|
ignoreblanklines : true
Valeur par défaut : False
|
|
ignoremissingcolumns
|
Si field_list contient davantage de colonnes que les fichiers source, les colonnes supplémentaires sont stockées comme NULL.
|
ignoremissingcolumns : true
Valeur par défaut False
|
|
implicit_partition_config
|
L'option implicit_partition_config active le partitionnement implicite lorsque partition_type est défini sur "hive". L'optimisation de partition implicite est activée lorsque strict_column_order est défini sur "true".
Les critères d'utilisation de cette optimisation sont les suivants :
- Il n'y a aucun fichier avec des chemins complets avec des chaînes supplémentaires avant l'URI de fichier et entre le chemin du nom de colonne de partition.
- Par exemple, vous ne pouvez pas avoir de fichiers tels que
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/xyz/.. ou https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/xyz/dbtype=dbtype_01/year=... La valeur xyz représente des chaînes supplémentaires. Ces fichiers sont ignorés si l'optimisation de liste est spécifiée et que le prédicat inclut les colonnes de partition implicites après ces chaînes supplémentaires.
- L'ordre des colonnes de partition dans la spécification doit correspondre aux chemins de fichier réels, et les chemins de fichier doivent inclure chaque colonne dans
partition_columns.
- Par exemple, vous ne pouvez pas avoir de fichiers tels que
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/year=2023/month=01/tenant=tenant_01/dbtype=... . Il ne se trouve pas dans l'ordre correct de la spécification implicit_columns. Ces fichiers sont ignorés si la spécification de liste est spécifiée et que les prédicats incluent des colonnes dans le désordre (par exemple, où tenant='tenant_01' et dbtype='dbtype_1' et year='2023' et ..)
- Vous ne pouvez pas avoir des fichiers comme
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/year=2023/month=01/day=01/myfile.csv. Notez que dbtype est manquant ici. Si l'optimisation est activée, ces fichiers sont ignorés ou la requête reçoit un message d'erreur en fonction des prédicats fournis.
- Les chemins de fichier doivent utiliser la dénomination de partitionnement de style Hive.
Les sous-options de l'option de format implicit_partition_config sont les suivantes :
partition_type : "hive" est la seule valeur acceptée, la valeur par défaut étant le chemin de nom de fichier non Hive.
partition_columns: ["column1","column2",…]
strict_column_order : false (valeur par défaut), true
Par exemple : dbms_cloud.create_external_table (
table_name => 'partitions1',
credential_name => 'MY_CRED',
file_uri_list => 'https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/',
column_list => 'payload varchar2(100), y number, total_sales number, tenant varchar2(10), dbtype varchar(10), year varchar(4), month varchar(2) day varchar(2)',
format => '{"type":"parquet",
"implicit_partition_config":{
"partition_type":"hive",
"strict_column_order":true,
"partition_columns":["tenant","dbtype","year","month","day"] } }');
|
implicit_partition_config propose les sous-options suivantes :
-
partition_type: hive
La valeur par défaut est un chemin de nom de fichier non Hive. La seule valeur valide est hive.
-
partition_columns : tableau de chaînes
Valeur par défaut : si partition_type est spécifié, les noms de colonne sont dérivés via la découverte automatique des clés de partition dans les données partitionnées de type HIVE. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.
-
strict_column_order: true
Valeur par défaut : false
|
|
implicit_partition_columns
|
Activez le partitionnement implicite et indiquez les noms de colonne de partition à l'aide de l'option de format implicit_partition_columns avec DBMS_CLOUD.CREATE_EXTERNAL_TABLE.
Le partitionnement implicite est activé des manières suivantes :
-
Utilisez implicit_partition_columns pour fournir la liste des colonnes de partition et indiquer implicit_partition_type. Par exemple : format => '{"implicit_partition_type":"hive",
"implicit_partition_columns":["country","year","month"]}'
-
Utilisez implicit_partition_columns pour fournir une liste de colonnes de partition sans indiquer le type de partition. Le type de partition est automatiquement détecté comme ruche ou non ruche. Par exemple : format => '{"implicit_partition_columns":["country","year","month"]}'
-
Utilisez implicit_partition_type pour indiquer le type de colonne de partition sans fournir de liste de colonnes de partition. La découverte automatique des clés de partition dans les données partitionnées de type HIVE est déclenchée pour déterminer les noms de colonne. Par exemple : format => '{"partition_type":"hive"}'
Reportez-vous à la page implicit_partition_type pour obtenir la description et la syntaxe des options.
|
implicit_partition_columns : tableau de chaînes
Valeur par défaut : si implicit_partition_type est spécifié, les noms de colonne sont dérivés via la découverte automatique des clés de partition dans les données partitionnées de type HIVE. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.
|
|
implicit_partition_type
|
Activez le partitionnement implicite et indiquez les types de données des colonnes de partition en utilisant l'option de format implicit_partition_type avec DBMS_CLOUD.CREATE_EXTERNAL_TABLE.
Pour plus d'informations sur l'activation du partitionnement implicite et des exemples, reportez-vous à implicit_partition_columns.
|
implicit_partition_type : ruche
Valeur par défaut : si implicit_partition_columns est indiqué, le type est automatiquement détecté comme ruche ou non ruche. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.
|
|
jsonpath
Utiliser uniquement avec COPY_COLLECTION
|
Chemin JSON permettant d'identifier le document à charger.
Cette option est valide uniquement pour les données de collecte JSON avec DBMS_CLOUD.COPY_COLLECTION.
|
jsonpath : string
Valeur par défaut : NULL
|
keyassignmentUtiliser uniquement avec COPY_COLLECTION
|
Indique si une nouvelle collection est créée en tant que collection compatible Mongo ou en tant que collection SODA.
Lorsque la valeur est définie sur embedded_oid, une nouvelle collection est créée en tant que collection compatible mongo.
Par défaut, ce paramètre n'est pas défini, ce qui signifie qu'une nouvelle collection est créée en tant que collection SODA.
|
keyassignment: embedded_oid
Par défaut : keyassignment n'est pas défini
|
|
keypath
Utiliser uniquement avec COPY_COLLECTION
|
Indique un attribut dans les données à charger en tant que valeur '_id'.
Si keypath est indiqué, vous devez également indiquer la valeur keyassignment en tant que embedded_oid.
Définissez la valeur sur un chemin, par exemple, '$.mykey', pour choisir la valeur du chemin en tant que valeur '_id'.
Ce paramètre est facultatif et n'est valide que pour le chargement dans des collections compatibles.
Si aucune valeur n'est indiquée, Oracle génère un ID système unique de 12 octets et le renseigne en tant qu'attribut '_id', si aucun attribut '_id' n'est déjà présent dans les données en cours de chargement.
|
keypath: string
Valeur par défaut : keypath n'est pas défini.
Lorsque keypath est défini, la valeur par défaut de string est NULL.
|
|
language
|
Indique un nom de langue (par exemple, FRENCH), à partir duquel dériver des informations linguistiques.
|
language : chaîne
Valeur par défaut : NULL
Pour obtenir la liste des langues prises en charge par Oracle, reportez-vous à Données d'environnement local dans le guide de support à la globalisation Oracle Database.
|
|
logdir
|
Spécifie une valeur de chaîne qui détermine le nom de l'objet répertoire dans lequel les fichiers logfile_table ou badfile_table sont enregistrés.
Par défaut, logdir n'est pas sensible à la casse, mais la casse est réservée lorsque la valeur indiquée est placée entre guillemets doubles.
Par exemple :
format => JSON_OBJECT ('logdir' value 'test_log')
L'option de format logdir indiquée dans l'exemple ci-dessus enregistre les fichiers logfile_table ou badfile_table dans l'objet de répertoire TEST_LOG.
format => JSON_OBJECT ('logdir' value '"test_log"')
L'option de format logdir indiquée dans l'exemple ci-dessus enregistre les fichiers logfile_table ou badfile_table dans l'objet de répertoire test_log.
|
logdir : string
Valeur par défaut : DATA_PUMP_DIR
|
|
logprefix
|
Spécifie une valeur de chaîne qui détermine le préfixe des fichiers logfile_table et badfile_table.
Le format du nom de la table de journalisation est : logprefix$operation_id
Par défaut, le préfixe de journal est en majuscules, mais la casse est réservée lorsque la valeur spécifiée est placée entre guillemets doubles.
Par exemple : format => JSON_OBJECT ('logprefix' value 'TEST')Les fichiers journaux utilisent ensuite le préfixe TEST, tel que TEST$2_LOG et TEST$2_BAD.
|
logprefix : string
La valeur par défaut est COPY
|
|
logretention
|
Indique une durée entière positive, en jours, pendant laquelle les fichiers logfile_table et badfile_table sont conservés.
Valeurs valides : 0 à 99999
Par exemple : format => JSON_OBJECT ('logretention' value 7) |
logretention : nombre
Valeur par défaut : 2
|
|
maxdocsize
Cette option est valide uniquement avec les données JSON
|
Taille maximale des documents JSON.
|
maxdocsize : nombre
Valeur par défaut : 1 mégaoctet
Valeur maximale autorisée : 2 Go
|
|
numericcharacters
|
Spécifie les caractères à utiliser comme séparateur de groupes et caractère décimal.
decimal_character : le séparateur décimal sépare la partie entière du nombre de ses décimales.
group_separator : le séparateur de groupes sépare les groupes dans les nombres entiers (milliers, millions, milliards, etc.).
|
numericcharacters: 'decimal_character group_separator'
La valeur par défaut est ".,"
Pour plus d'informations, reportez-vous à NLS_NUMERIC_CHARACTERS dans le guide de support à la globalisation Oracle Database.
|
|
numberformat
|
Spécifie le modèle de format numérique. Les modèles de format numérique définissent l'arrondi au nombre de chiffres significatifs spécifié. Un modèle de format numérique est composé d'éléments de format numérique.
Il est utilisé en combinaison avec numericcharacters.
|
numberformat: number_format_model
La valeur par défaut est dérivée du paramètre NLS_TERRITORY
Pour plus d'informations, reportez-vous à Modèles de format numérique dans Référence de langage SQL.
|
|
partition_columns
|
L'option de format partition_columns est utilisée avec DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE pour indiquer les noms de colonne et les types de données des colonnes de partition lorsque les colonnes de partition sont dérivées du chemin de fichier, selon le type de fichier de données, structuré ou non structuré :
-
Lorsque DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE inclut le paramètre column_list et que le fichier de données n'est pas structuré, par exemple avec des fichiers texte CSV, partition_columns n'inclut pas le type de données. Par exemple, utilisez un format tel que le suivant pour ce type de spécification partition_columns :
'"partition_columns":["state","zipcode"]'
Le type de données n'est pas requis car il est indiqué dans le paramètre DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list.
-
Lorsque le paramètre DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE n'inclut pas le paramètre column_list et que les fichiers de données sont structurés, tels que les fichiers Avro, ORC ou Parquet, l'option partition_columns inclut le type de données. Par exemple, l'exemple suivant présente une spécification partition_columns :
'"partition_columns":[
{"name":"country", "type":"varchar2(10)"},
{"name":"year", "type":"number"},
{"name":"month", "type":"varchar2(10)"}]'
Si les fichiers de données ne sont pas structurés et que la sous-clause type est indiquée avec partition_columns, la sous-clause type est ignorée.
Pour les noms d'objet qui ne sont pas basés sur le format de ruche, l'ordre des colonnes indiquées par partition_columns doit correspondre à l'ordre dans lequel elles apparaissent dans le nom d'objet dans file_uri_list.
|
|
|
quote
|
Indique le guillemet pour les champs. Les caractères quote sont enlevés durant l'opération de chargement si elles sont indiquées.
|
quote : caractère
Valeur par défaut : NULL, sans guillemets
|
|
readsize
|
Spécifie la taille du tampon de lecture pour traiter les enregistrements.
Le paramètre readsize doit être au moins aussi grand que l'enregistrement le plus grand dans l'ensemble de données en cours de lecture.
Par exemple :
format => JSON_OBJECT ('readsize' value 1000)
|
readsize : nombre
Valeur par défaut : 10 mégaoctets
|
|
recorddelimiter
Option valide avec les données JSON
|
Indique le délimiteur d'enregistrement.
Par défaut, DBMS_CLOUD tente de trouver automatiquement le caractère de retour à la ligne correct comme délimiteur. Il recherche d'abord le caractère de retour à la ligne Windows "\r\n" dans le fichier. S'il trouve le caractère à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. If a Windows newline character is not found, it searches for the UNIX/Linux newline character "\n" and if it finds one it uses "\n" as the record delimiter for all files in the procedure.
Indiquez explicitement cet argument si vous voulez remplacer le comportement par défaut, par exemple :
format => json_object('recorddelimiter' VALUE '''\r\n''')
Pour indiquer qu'il n'existe aucun délimiteur d'enregistrement, vous pouvez spécifier une valeur recorddelimiter qui ne figure pas dans le fichier d'entrée. Par exemple, pour indiquer qu'il n'y a pas de séparateur, indiquez le caractère de contrôle 0x01 (SOH) en tant que valeur pour recorddelimiter et définissez la valeur recorddelimiter sur "0x''01''" (ce caractère n'est pas présent dans le texte JSON). Par exemple :
format => '{"recorddelimiter" : "0x''01''"}'
recorddelimiter est défini une fois par appel de procédure. Si vous utilisez la valeur par défaut, detected newline, tous les fichiers utilisent le même délimiteur d'enregistrement, si un délimiteur est détecté.
|
recorddelimiter : caractère
Valeur par défaut : nouvelle ligne détectée
|
|
regexuri
|
L'option de format regexuri est utilisée avec les procédures DBMS_CLOUD suivantes :
Lorsque la valeur de regexuri est définie sur TRUE, vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud.
Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre regexuri est défini sur FALSE. Lorsque le paramètre regexuri est défini sur TRUE, les caractères "*" et " ?" font partie du modèle d'expression régulière indiqué.
Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction REGEXP_LIKE. Les modèles d'expression régulière ne sont pas pris en charge pour les noms de répertoire.
Pour les tables externes, cette option n'est prise en charge qu'avec les tables créées sur un fichier dans Object Storage.
Par exemple :
format => JSON_OBJECT('regexuri' value TRUE)
Pour plus d'informations sur la condition REGEXP_LIKE, reportez-vous à REGEXP_LIKE Condition.
|
regexuri: True
Valeur par défaut : False
|
|
rejectlimit
|
L'opération génère une erreur après le rejet d'un nombre donné de lignes.
|
rejectlimit : nombre
Valeur par défaut : 0
|
|
removequotes
|
Enlève tous les guillemets encadrant un champ du fichier source.
|
removequotes: true
Valeur par défaut : False
|
|
skipheaders
|
Indique le nombre de lignes à ignorer à partir du début du fichier.
|
skipheaders : nombre
Valeur par défaut : 0 si aucune valeur n'est spécifiée, 1 si aucune valeur n'est spécifiée
|
|
territory
|
Spécifie un nom de territoire pour déterminer plus précisément les caractéristiques des données d'entrée.
|
territory : chaîne
Valeur par défaut : NULL
Pour obtenir la liste des territoires pris en charge par Oracle, reportez-vous à Données d'environnement local dans le guide de support à la globalisation Oracle Database.
|
|
timestampformat
|
Indique le format d'horodatage dans le fichier source. L'option de format AUTO recherche les formats suivants :
YYYY-MM-DD HH:MI:SS.FF
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3
|
timestampformat : chaîne
Valeur par défaut : format d'horodatage de base de données
La chaîne peut contenir des caractères génériques tels que "$".
|
|
timestampltzformat
|
Indique l'horodatage avec le format de fuseau horaire local dans le fichier source. L'option de format AUTO recherche les formats suivants :
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestampltzformat : chaîne
Valeur par défaut : horodatage de base de données avec format de fuseau horaire local
|
|
timestamptzformat
|
Indique l'horodatage avec le format de fuseau horaire dans le fichier source. L'option de format AUTO recherche les formats suivants :
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestamptzformat : chaîne
Valeur par défaut : horodatage de base de données avec le format de fuseau horaire
|
|
trimspaces
|
Indique la façon dont sont tronqués les espaces de début et de fin des champs.
Voir la description de trim_spec.
|
trimspaces : rtrim| ltrim| notrim| lrtrim| ldrtrim
Valeur par défaut : notrim
|
|
truncatecol
|
Si les données du fichier sont trop longues pour un champ, cette option tronque la valeur du champ au lieu de rejeter la ligne.
|
truncatecol :true
Valeur par défaut : False
|
|
type
|
Spécifie le type de fichier source.
Reportez-vous à la description de CSV dans Clause field_definitions.
Si type est datapump, la seule autre option de format valide est rejectlimit.
Si type est défini sur datapump, les seuls magasins d'objets pris en charge sont Oracle Cloud Infrastructure Object Storage et Oracle Cloud Infrastructure Object Storage Classic.
Reportez-vous à la section DBMS_CLOUD Package Format Options for Avro, ORC, or Parquet pour obtenir les valeurs type avro, orc ou parquet.
Pour les données JSON avec DBMS_CLOUD.COPY_COLLECTION, type a deux valeurs valides : json (par défaut) et ejson. Pour DBMS_CLOUD.COPY_COLLECTION, ces valeurs indiquent toutes deux que l'entrée est des données JSON. La valeur ejson entraîne la conversion des objets étendus dans les données d'entrée JSON textuelles en valeurs JSON scalaires dans la collection JSON binaire native. La valeur json n'effectue pas cette transformation et tous les objets des données d'entrée sont convertis au format JSON binaire.
Pour les données JSON avec DBMS_CLOUD.COPY_DATA, type a une valeur valide : json. Cette valeur indique que l'entrée est des données JSON.
|
type: csv|csv with embedded|csv without embedded |avro||datapump|orc|parquet
Remarque
Tous les types de procédure DBMS_CLOUD ne sont pas pris en charge.
csv est identique à csv without embedded.
Valeur par défaut : NULL
Pour les données JSON, il existe deux valeurs type valides à utiliser avec DBMS_CLOUD.COPY_COLLECTION : json|ejson Dans ce cas, la valeur par défaut est json. Pour les données JSON avec DBMS_CLOUD.COPY_DATA, seule json est valide.
|
|
unpackarrays
Utiliser uniquement avec COPY_COLLECTION
|
Lorsque la valeur est true, si un document chargé est un tableau, le contenu du tableau est chargé en tant que documents plutôt que le tableau lui-même. Cela s'applique uniquement au tableau de niveau supérieur.
Lorsqu'elle est définie sur true, l'ensemble du tableau est inséré en tant que document unique.
Cette option est valide uniquement pour les données de collecte JSON avec DBMS_CLOUD.COPY_COLLECTION.
|
unpackarrays: true
Valeur par défaut : False
|