Introduction à spark-submit et au kit SDK
Tutoriel vous aidant à commencer à utiliser le code de kit SDK Java afin d'exécuter une application Spark dans Data Flow à l'aide de spark-submit et de la chaîne execute
.
Démarrez avec spark-submit dans Data Flow avec le kit SDK. Suivez le tutoriel existant Introduction à Oracle Cloud Infrastructure Data Flow, mais utilisez le kit SDK Java pour exécuter les commandes spark-submit.
Avant de commencer
Terminez les prérequis pour pouvoir utiliser les commandes spark-submit dans Data Flow avec le kit SDK Java.
1. ETL avec Java
Utiliser Spark-submit et le kit SDK Java pour effectuer un ETL avec Java.
2: Apprentissage automatique avec PySpark
A l'aide de Spark-submit et du kit SDK Java, effectuez un apprentissage automatique avec PySpark.
Etapes suivantes
Utilisez Spark-submit et l'interface de ligne de commande dans d'autres situations.
Vous pouvez utiliser spark-submit et le kit SDK Java afin de créer et d'exécuter Java, Python ou SQL avec Data Flow, et d'explorer les résultats. Data Flow gère tous les détails du déploiement, de la désactivation, de la gestion des journaux, de la sécurité et de l'accès utilisateur. Avec Data Flow, vous pouvez vous concentrer sur le développement d'applications Spark sans vous soucier de l'infrastructure.