Esta página ha sido traducida por una máquina.

Uso del editor de códigos

Obtenga más información sobre Data Flow y Oracle Cloud Infrastructure Code Editor.

El editor de códigos proporciona un entorno de edición enriquecido en la consola, que incluye resaltado de sintaxis, finalizaciones inteligentes, coincidencia de corchetes, líneas, navegación de código (ir a la definición del método, buscar todas las referencias) y refactorización. Puede:
  • Cree, cree, edite y despliegue aplicaciones en Java, Scala y Python, sin cambiar entre la consola y el entorno de desarrollo local.
  • Empiece a utilizar las plantillas de Data Flow que se incluyen con el editor de códigos.
  • Ejecute y pruebe el código localmente con Cloud Shell antes del despliegue en Data Flow.
  • Defina los parámetros de Spark.
Entre otras ventajas se incluyen:
  • Integración de Git que permite clonar cualquier repositorio basado en Git, realizar un seguimiento de los cambios realizados en los archivos y confirmar, recuperar e insertar código directamente desde Code Editor, lo que le permite contribuir con código y revertir los cambios de código con facilidad. Consulte la guía para desarrolladores para obtener información sobre el uso de Git y GitHub.
  • Un estado persistente en las sesiones guarda automáticamente el progreso y mantiene el estado en muchas sesiones de usuario, por lo que el editor de códigos abre automáticamente la última página editada en el inicio.

  • Acceso directo a Apache Spark y más de 30 herramientas, incluido sbt, y Scala preinstalado con Cloud Shell.
  • Más de una docena de ejemplos de Data Flow que cubren diferentes funciones agrupadas como plantillas para ayudarle a empezar.

Para obtener más información sobre el uso del editor de códigos para crear aplicaciones, consulte Creación de una aplicación con el editor de códigos.

Para obtener más información sobre las funciones y la funcionalidad del editor de códigos, consulte la documentación del editor de códigos.

Requisitos previos

  • El editor de códigos utiliza las mismas políticas de IAM que Cloud Shell. Para obtener más información, consulte Política de IAM necesaria de Cloud Shell.

  • Confirme que los idiomas y las herramientas necesarios están instalados en Cloud Shell.
  • Si utiliza el metastore de Data Catalog, necesita la configuración de las políticas adecuadas.
Se deben instalar las siguientes herramientas y versiones mínimas en Cloud Shell:
Herramientas necesarias y versión admitida
Herramienta Versión Descripción
Scala 2.12.15 Se utiliza para escribir código basado en Scala en el editor de códigos.
sbt 1.7.1 Se utiliza para crear aplicaciones de Scala de forma interactiva.
Python 3.8.14 Intérprete de Python
Git 2.27.0 Git bash para ejecutar comandos GIT de manera interactiva.
JDK 11.0.17 Se utiliza para desarrollar, crear y probar aplicaciones Java de Data Flow.
Apache Spark 3.2.1 Instancia local de Apache Spark que se ejecuta en Cloud Shell. utilizada para probar el código.

Limitaciones

  • Data Flow solo puede acceder a los recursos de la región seleccionada en el menú de selección Región de la consola cuando se inició Cloud Shell.
  • Solo están soportadas las aplicaciones de Data Flow basadas en Java, Python y Scala
  • El editor de códigos no soporta la compilación y depuración. Debe realizarlas en Cloud Shell.
  • El plugin solo está soportado con Apache Spark versión 3.2.1.
  • Se aplican todas las limitaciones de Cloud Shell.

Configuración del plugin de Spark de Data Flow

Siga estos pasos para configurar el plugin de Spark de Data Flow.

  1. Desde la línea de comandos, navegue hasta el directorio HOME.
  2. Ejecute /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.sh.

    El script es un proceso automatizado para configurar Spark en el directorio de usuarios con otros artefactos necesarios.