コード・エディタの使用

データ・フローおよびOracle Cloud Infrastructure Code Editorについてご紹介します。

コード・エディタは、構文の強調表示、インテリジェントな完了、ブラケットの照合、リント、コード・ナビゲーション(メソッド定義への移動、すべての参照の検索)、リファクタリングなどのリッチ編集環境をコンソールで提供します。可能なこと:
  • コンソールとローカル開発環境を切り替えることなく、Java、ScalaおよびPythonでアプリケーションを作成、構築、編集およびデプロイします。
  • コード・エディタに付属するデータ・フロー・テンプレートの使用を開始します。
  • データ・フローにデプロイする前に、クラウド・シェルでコードをローカルで実行およびテストします。
  • Sparkパラメータを設定します。
その他に次のような利点があります。
  • Gitベースのリポジトリのクローニング、ファイルに加えられた変更の追跡、コード・エディタ内から直接コードのコミット、プルおよびプッシュを可能にするGit統合により、コードのコントリビュートやコードの変更を簡単に元に戻すことができます。GitおよびGitHubの使用の詳細は、開発者ガイドを参照してください。
  • セッション間の永続的な状態は、進行状況を自動保存し、多くのユーザー・セッションにわたって状態を維持するため、コード・エディタは起動時に最後に編集されたページを自動的に開きます。

  • Apache Sparkおよびsbtを含む30を超えるツール、およびCloud Shellで事前インストールされたScalaに直接アクセスできます。
  • 使い始めるのに役立つテンプレートとしてバンドルされている様々な機能を網羅した、12を超えるデータ・フローの例があります。

コード・エディタを使用したアプリケーションの作成の詳細は、「コード・エディタを使用したアプリケーションの作成」を参照してください。

コード・エディタの機能の詳細は、コード・エディタのドキュメントを参照してください。

前提条件

  • コード・エディタでは、クラウド・シェルと同じIAMポリシーを使用します。詳細は、クラウド・シェルに必要なIAMポリシーを参照してください。

  • 必要な言語とツールがCloud Shellにインストールされていることを確認します。
  • データ・カタログ・メタストアを使用している場合は、適切なポリシーを設定する必要があります。
次のツールおよび最小バージョンをクラウド・シェルにインストールする必要があります:
必要なツールとサポートされているバージョン
ツール バージョン 説明
Scala 2.12.15 コード・エディタでScalaベースのコードを記述するために使用されます。
ビット 1.7.1 Scalaアプリケーションを対話形式で構築するために使用されます。
Python 3.8.14 Pythonインタプリタ
Git 2.27.0 GIT bashでGITコマンドを対話的に実行します。
JDK 11.0.17 データ・フローJavaアプリケーションの開発、構築およびテストに使用されます。
Apache Spark 3.2.1 Cloud Shellで実行されているApache Sparkのローカル・インスタンス。コードのテストに使用されます。

制限事項

  • データ・フローは、クラウド・シェルの起動時にコンソールの「リージョン」選択メニューで選択されたリージョンに対してのみリソースにアクセスできます。
  • Javaベース、PythonベースおよびScalaベースのデータ・フロー・アプリケーションのみがサポートされています
  • コード・エディタはコンパイルおよびデバッグをサポートしていません。Cloud Shellで実行する必要があります。
  • このプラグインは、Apache Sparkバージョン3.2.1でのみサポートされています。
  • すべてのCloud Shellの制限事項が適用されます。

データ・フローSparkプラグインの設定

データ・フローSparkプラグインを設定するには、次のステップに従います。

  1. コマンドラインから、HOMEディレクトリに移動します。
  2. /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.shを実行します。

    スクリプトは、他の必要なアーティファクトとともにユーザー・ディレクトリにSparkを設定する自動化されたプロセスです。