Temario del curso

Introducción

  • Apache Spark vs Hadoop MapReduce

Resumen de las características y arquitectura de Apache Spark

Elegir un lenguaje de programación

Configurar Apache Spark

Crear una aplicación de ejemplo

Elegir el conjunto de datos

Realizar análisis de datos en el conjunto de datos

Procesamiento de datos estructurados con Spark SQL

Procesamiento de datos en streaming con Spark Streaming

Integrar Apache Spark con herramientas de aprendizaje automático de terceros

Usar Apache Spark para el procesamiento de grafos

Optimizar Apache Spark

Resolución de problemas

Resumen y conclusión

Requerimientos

  • Experiencia con la línea de comandos de Linux
  • Comprensión general del procesamiento de datos
  • Experiencia en programación con Java, Scala, Python o R

Audiencia

  • Desarrolladores
 21 Horas

Número de participantes


Precio por Participante​

Testimonios (5)

Próximos cursos

Categorías Relacionadas