このページは機械翻訳したものです。

考慮事項およびサポート情報

データ統合でデータ・アセットを作成する前に、何がサポートされているか、および現在の制限、依存関係および必要なタスクを理解していることを確認してください。

OCI VaultのシークレットおよびOracle Wallet

Oracle Cloud Infrastructureデータ統合はOracle Cloud Infrastructure Vaultと統合されており、ボールト、キーおよびシークレットを使用して機密情報を管理できます。

ボールトとは、キーおよびシークレットのためのコンテナです。シークレットには、データ・ソースへの接続に必要なパスワードなどの資格証明が格納されます。ボールトの暗号化キーを使用して、シークレット・コンテンツを暗号化し、ボールトにインポートします。シークレット・コンテンツはbased64でエンコードされます。Oracle Cloud Infrastructureデータ統合では、データ・アセットの作成時とデータ・ソースへの接続時に、同じキーを使用してシークレットを取得および復号化します。

ほとんどのデータ・ソース・タイプでは、OCI Vaultのシークレットを使用して、データ・アセット内のデフォルト接続のパスワードを格納できます。ボールトとシークレットを作成するには、Vaultの作成およびVaultでのシークレットの作成を参照してください。

データ・アセットを作成するときに、接続詳細でシークレットのOCIDを指定するため、実際のパスワードを入力する必要はありません。シークレットOCIDをコピーするには、シークレットの詳細の取得を参照してください。

Oracle Database、Oracle Autonomous Data WarehouseおよびOracle Autonomous Transaction Processingソースの場合、データ・アセットの作成時にウォレットをアップロードしてウォレット・パスワードを入力するのではなく、Oracle Walletおよびパスワードにシークレットを使用するというオプションがあります。

Oracle WalletをOCI Vaultのシークレットとともに使用するには、次のようにする必要があります:

  1. ウォレットをダウンロードするときに、ウォレット・パスワードを指定します。
  2. ダウンロードしたウォレットzipから.p12ファイルを削除します。
  3. 任意のbase64エンコーダを使用して、変更したウォレットzipをbase64にエンコードします。
  4. base64でエンコードしたデータをボールトのシークレットにコピーします。
  5. ウォレット・パスワードにシークレットを作成します。
  6. データベース・パスワードにシークレットを作成します。

OCI Vaultのシークレットを使用するには、次のポリシーがあることを確認します:

allow any-user to read secret-bundles in compartment <compartment-name> where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}

次のポリシーを使用して、管理者ではないユーザーのグループがOracle Autonomous Data WarehouseおよびOracle Autonomous Transaction Processingでシークレットを使用できるようにします:

allow group <group-name> to read secret-bundles in compartment <compartment-name>

データ・アセットでサポートされるデータ・ソース

次の表に、データ統合で使用できるデータ・ソースを示します。

データ・ソース・タイプ バージョン ソース ターゲット
Amazon RDS for SQL Server 2019 はい いいえ
2017 はい いいえ
2016サービス・パック2 はい いいえ
2014サービス・パック3 はい いいえ
2012 Service Pack 4 はい いいえ
Amazon Redshift Amazon Redshift はい いいえ
Apache Hive CDH 5.4以上 はい いいえ
Apache 1.0、2.0および3.0以上 はい はい
Hadoop分散ファイル・システム(HDFS) 3.1.2 はい はい
Azure SQL Database 11.0 以上 はい いいえ
12.0 以上 はい いいえ
Microsoft Azure Synapse Analytics 12.0 以上 はい いいえ
Microsoft SQL Server 2022 はい いいえ
2019 はい いいえ
2017 はい いいえ
2016サービス・パック2 はい いいえ
2014サービス・パック3 はい いいえ
2012 Service Pack 4 はい いいえ
MySQL 5.7.xおよび8.0.x はい はい
MySQL HeatWave 8.0 以上 はい いいえ
Amazon RDS上のMySQL 5.7.xおよび8.0.x はい いいえ
Amazon S3 Amazon S3 はい いいえ
Autonomous Data Warehouse 18c/19c はい はい
Autonomous Transaction Processing 18c/19c はい はい
Oracle Database 11g ○(SQLタスク・ストアド・プロシージャ以外) はい
12.1 はい はい
12.2 はい はい
18 はい はい
19 はい はい
21 はい はい

Oracle Cloud Infrastructure上のOracle Database

11g ○(SQLタスク・ストアド・プロシージャ以外) はい
12.1 はい はい
12.2 はい はい
18 はい はい
19 はい はい
Oracle Peoplesoft

CRM 8.4以上

PeopleTools 8.49以上

はい いいえ
Oracle Siebel 8.0 以上 はい いいえ
Oracle E-Business Suite 12.0.4 以上 はい いいえ
Exadata DBシステム 11g ○(SQLタスク・ストアド・プロシージャ以外) はい
12.1 はい はい
12.2 はい はい
18 はい はい
19 はい はい
Oracle Cloud Infrastructure Object Storage 最新 はい はい
Amazon RDS上のOracle 12.1 はい いいえ
12.2 はい いいえ
18 はい いいえ
19 はい いいえ
21 はい いいえ
Oracle Business Intelligence Cloud Connector (BICC)を使用したOracle Fusion Applications

BICC APIバージョン13.20.10以上

Fusion Applicationsバージョン13.20.10 (20 Oct)以上

はいいいえ
Oracle Business Intelligence Publisher (BIP)を使用したOracle Fusion Applications 11.1.1.9以上 はい いいえ
PostgreSQL 12.0 以上 はい いいえ
11.0 以上 はい いいえ
10.1 はい いいえ
9.6 、9.5、9.4、9.3、9.2、9.1および9.0 はい いいえ
8.4 、8.3、および8.2 はい いいえ
IBM DB2 DB2 V11.1以上(Linux、UNIX、Windows) はい いいえ
DB2 V10.1以上(Linux、UNIX、Windows) はい いいえ
DB2 V9.1以上(Linux、UNIX、Windows) はい いいえ
DB2 V8.x以上(Linux、UNIX、Windows) はい いいえ
DB2 V12以上(z/OS) はい いいえ
DB2 V11以上(z/OS) はい いいえ
DB2 V10以上(z/OS) はい いいえ
DB2 V9.1以上(z/OS) はい いいえ
DB2 UDB V8.1 (z/OS) はい いいえ
DB2 i 7.1以上 はい いいえ
DB2 i 6.1以上 はい いいえ
DB2 V5R4以上(i5/OS) はい いいえ
Amazon Web Services (AWS) Aurora PostgreSQL 1.0 以上 はい いいえ
Influx DB 1.8 および2.x はい いいえ
REST OpenAPI 3.0.0以上 はい いいえ
スノーフレーク 適用なし はい いいえ
Salesforce Salesforce API 56.0 はい いいえ

サポートされるオブジェクト・タイプ

Oracle Cloud Infrastructure Object StorageおよびAmazon S3データ・アセットの場合、データ統合では次のオブジェクト・タイプがサポートされます:

  • CSV
  • JSON
  • Parquet
  • Avro
  • Excel (現在、XLSXファイルのみがサポートされています。)

プリミティブ・データ型の読取りおよび書込みのみがサポートされています。

サポートされる圧縮タイプ

Oracle Cloud Infrastructure Object Storageデータ・アセットの場合、データ統合では、ソース演算子やターゲット演算子でCSVまたはJSONオブジェクト・ファイル・タイプを使用できるように、次の圧縮タイプまたは圧縮方法がサポートされています:

  • 自動(デフォルト)
  • Gzip
  • Bzip2
  • Deflate
  • Lz4
  • Snappy

ParquetおよびAvroファイル・タイプの場合は、「自動(デフォルト)」のみがサポートされます。

ソース・ファイルが圧縮されている場合、圧縮タイプは、使用されている圧縮アルゴリズムです。圧縮アルゴリズムが不明な場合は、「自動(デフォルト)」圧縮タイプを使用してください。

サポートされないデータ型

データソース サポートされないデータ型
Oracle Database
  • RAW
  • ROWID
  • UROWID
  • BFILE
  • TIMESTAMP WITH LOCAL TIMEZONE
  • INTERVAL DAY TO SECOND
  • INTERVAL YEAR TO MONTH
  • XMLTYPE
  • SDO_GEOMETRY
  • NCHAR
  • NVARCHAR

階層データ型

データ統合では、ソースおよびターゲットのデータ・エンティティで階層データ型がサポートされます。

階層データ型を含むデータの読取りおよび書込みを行うには、現在、汎用RESTデータ・アセットおよびOCI Object Storage、Amazon S3、HDFSなどのファイル・ストレージ・データ・アセットのみを使用できます。JSONファイル形式は、汎用RESTデータ・アセットでサポートされています。ファイル・ストレージ・データ・アセットでは、次のファイル形式がサポートされています:

  • JSONおよび複数行JSON
  • Avro
  • Parquet

サポートされる階層データ型は、Array、StructおよびMap複合型です。JSONからAvroまたはAvroからJSONなど、任意のファイル・タイプ間の変換を実行できます。

階層データ・エンティティおよび複合型を使用する前に、コンポーネントの操作やタスクの実行を行う際にデータ統合でサポートされている機能について理解しておく必要があります。

タスク/コンポーネントサポート制限事項
データ・ソースの準備
  • 汎用RESTデータ・アセットおよびJSONファイル形式
  • OCI Object Storageデータ・アセットおよびJSON、複数行JSON、AvroおよびParquetファイル形式
  • Array、StructおよびMap複合型
  • ArrayはAvroおよびParquetファイル形式ではサポートされていません
ソース演算子の追加および構成
  • JSON、AvroおよびParquetファイル・タイプ
  • ARRAY_TYPECOMPOSITE_TYPE (Struct)およびMAP_TYPEの第1レベル・フィールドに対する除外ルールおよび名前変更ルール
  • 複合型が簡略化されたデータ構造で表示されます
  • 「属性」タブ: ネストされたフィールドにルールを適用できません
  • 「データ」タブ: 複合型にはデータ・プロファイルが表示されません
ターゲット演算子の追加および構成

「新規データ・エンティティの作成」チェック・ボックスを選択します:

  • JSON、AvroおよびParquet階層ファイル形式
  • Array、StructおよびMap複合型

既存のデータ・エンティティを選択します:

  • ファイル: JSON、AvroおよびParquet階層ファイル形式
  • データベース: Oracle DatabaseおよびOracle Cloud Infrastructure上のOracle Databaseのみ
整形演算子の使用
  • ArrayおよびStruct複合型はすべての演算子でサポートされます
  • 和集合演算子では、Union All (重複行を含める)のみがArrayおよびStruct複合型でサポートされます
  • Union All、マイナス、論理積、フィルタおよび分割演算子の場合: Map複合型はサポートされていません
  • Union (重複行を除外)はサポートされていません
  • 属性の一括選択およびパターンは複合型ではサポートされていません。たとえば、属性の一括選択のための%MACRO_INPUT%は、式ビルダーではサポートされていません。
マップ属性
  • JSON、AvroおよびParquet階層データ・エンティティの第1レベル・フィールドをマップできます
  • ネストされたフィールドをマップするには、ネストされたフィールドの式を作成し、導出されたフィールドをマップします
  • 階層データ・エンティティのネストされたフィールドは直接マップできません

たとえば、NAMEおよびEMAILはマップできます。NAMEF_NAMEおよびL_NAMEは直接マップできません。EMAILEMAILIDおよびEMAILTYPEは直接マップできません:

{
   "CUST_ID":1333,
   "NAME":{
      "F_NAME":"Sam",
      "L_NAME":"Smith"
   },
   "EMAIL":[
      {
         "EMAILID":"abc@oracle.com",
         "EMAILtype":"work"
      },
      {
         "EMAILID":"abc@othermail.com",
         "EMAILtype":"personal"
      }
   ],
   "GENDER":"Male"
}
データ変換の使用(データ・タブ)
  • ARRAY_TYPECOMPOSITE_TYPEおよびMAP_TYPEの第1レベル・フィールドに対する除外変換および名前変更変換
  • その他の変換およびバルク変換は、複合型ではサポートされていません

Unicodeのサポート

データ統合では、Unicode標準がサポートされています。これは、任意の言語で記述された文字およびテキストの汎用文字エンコーディング標準です。Unicode標準では、プラットフォーム、デバイスまたはアプリケーションに関係なく、すべての文字に対して一意の番号が提供されています。たとえば、英字「A」に対応するUnicode文字は0041です。

データ統合では、データおよびメタデータ内でUnicode文字(マルチバイト文字を含む)がサポートされています。

データにおけるUnicodeサポートとは、ソース・データ・アセットとターゲット・データ・アセットの属性および属性値にUnicode文字とマルチバイト文字を使用できることを意味します。また、式にUnicode文字およびマルチバイト文字を入力することもできます。JSONおよびCSVのオブジェクト・ストレージ・データ・アセットの場合、デフォルトのエンコーディングはUTF-8であり、変更できません。

メタデータにおけるUnicodeのサポートとは、データ・アセットのデータ・エンティティおよびスキーマの名前にUnicode文字とマルチバイト文字を使用できることを意味します。また、データ統合でオブジェクトの作業中に、名前と説明にUnicodeおよびマルチバイト文字を入力することもできます。

Unicode標準では、Unicode文字に割り当てられた一意の番号がコード・ポイントです。現在、データ統合では、次のUnicodeコード・ポイントおよびコード・ポイント範囲がサポートされています:

コード・ポイントまたは範囲文字サポートされる文字数
基本的なラテン文字
0024$ (ドル記号)1
0041 - 005AAからZ26
005F_ (アンダーバー)1
0061 - 007Aaからz26
Latin-1サプリメント文字
00C0 - 00D6Latin-1 Supplement文字(アクセント付き)23
00D8 - 00F631
00F8 - 00FF8
Latin Extended-AからGreek Extendedまでの46範囲の文字
0100 - 1FFF次の名前付き範囲の文字: Latin Extended-A、Latin Extended-B、IPA Extensions、Spacing Modifier Letters、Combining Diacritical Marks、Greek and Coptic、Cyrillic、Cyrillic Supplementary、Armenian、Hebrew、Arabic、Syriac、Thaana、Devanagari、Bengali、Gurmukhi、Gujarati、Oriya、Tamil、Telugu、Kannada、Malayalam、Sinhala、Thai、Lao、Tibetan、Myanmar、Georgian、Hangul Jamo、Ethiopic、Cherokee、Unified Canadian Aboriginal Syllabics、Ogham、Runic、Tagalog、Hanunoo、Buhid、Tagbanwa、Khmer、Mongolian、Limbu、Tai Le、Khmer Symbols、Phonetic Extensions、Latin Extended Additional、Greek Extended7936
HiraganaからHangul Compatibility Jamoまでの4範囲の文字
3040 - 318F次の名前付き範囲の文字: Hiragana、Katakana、Bopomofo、Hangul Compatibility Jamo336
4CJK (中国語、日本語および韓国語)範囲の文字
3300 - 337FCJK互換文字128
3400 - 3D2DCJK統合漢字拡張A文字2350
4E00 - 9FFFCJK統合漢字20992
F900 - FAFFCJK互換漢字512

データ型マッピングの理解

使用するソース・システムおよびターゲット・システムのデータ型は、Oracle Cloud Infrastructureデータ統合の汎用データ型のコア・セットとの間でマップされます。

汎用データ型のセットのうち、一部の型には長さ、スケールおよびその他のプロパティがあり、それを使用してデータ型をさらに制限できます。

データ統合における式演算子では、まだすべての汎用データ型はサポートされていません。ある汎用データ型に基づいて新しい属性を作成できるのは、その汎用型がサポートされている場合のみです。

ネットワーク構成

ネットワーク構成は、データ統合サービスで使用しているソース・データ・アセットとターゲット・データ・アセット、およびアセットが配置されている場所によって異なります。

ニーズのオプションを確認するには、データ統合のためのVCN構成の理解ブログを参照してください。

ワークスペースには、仮想クラウド・ネットワーク(VCN)をアタッチできます。プライベート・ネットワーク内のデータ・ソースの場合は、少なくとも1つのリージョナル・サブネットを含むVCNを作成します。リージョナル・サブネットのみがサポートされます。サブネットでDNSホスト名を使用する必要があります。データ・ソースの場所によっては、他のネットワーク・オブジェクト(サービス・ゲートウェイ、ネットワーク・セキュリティ・グループ、ネットワーク・アドレス変換(NAT)ゲートウェイなど)を作成する必要があります。

一般に、インターネットからアクセス可能なデータ・ソースについては:

  • ワークスペースにVCNがアタッチされている場合: データ統合は、ワークスペースのVCN上のネットワーク・アドレス変換(NAT)ゲートウェイを介して直接接続できます。
  • ワークスペースにVCNがアタッチされていない場合: データ統合はパブリックIPアドレスを使用して直接接続できます。

サブネット内でプライベートIPが定義されているリソース(ワークスペースなど)は、ローカルまたはリモートのピアリング・ゲートウェイを使用し、サービス・ゲートウェイまたはNATゲートウェイを介して、様々な仮想クラウド・ネットワークおよびリージョン内の他のプライベート・リソースにアクセスできます。

オブジェクト・ストレージとAutonomous Data Warehouseの両方にアクセスする必要がある場合は、ゲートウェイを組み合せることもできます。たとえば、パブリック接続には、オブジェクト・ストレージ用のサービス・ゲートウェイとAutonomous Data Warehouse用のNATゲートウェイの両方が必要です。

インターネットからアクセスできないデータ・ソースについては、他に次のようなオプションがあります:

  • データ・ソースと同じサブネット内にプライベート・エンドポイントがあり、そのプライベート・エンドポイントが有効になったワークスペースを作成します。

  • Oracle Cloud Infrastructure FastConnectを使用します。

  • Oracle Cloud Infrastructure VPN接続(IPSec VPNとも呼ばれる)を使用します。

ただし、次のソースがプライベート・ドメイン内にある場合は、Oracle Cloud Infrastructure FastConnectおよびOracle Cloud Infrastructure VPN接続を使用する必要があります:

  • Amazon RDS上のOracle
  • Amazon RDS上のMySQL
  • Amazon RDS for SQL Server
  • Microsoft Azure SQL Database

Oracle Cloud Infrastructure Networkingドキュメント: