When you enroll through our links, we may earn a small commission—at no extra cost to you. This helps keep our platform free and inspires us to add more value.

Curso de Big Data con Hadoop y Spark desde cero
Introducción al Big Data con Spark y el ecosistema Hadoop: HDFS, MapReduce, YARN, Hive, Impala, Pig, Sqoop

This Course Includes
udemy
4.5 (562 reviews )
4h 22m
english
Online - Self Paced
professional certificate
Udemy
About Curso de Big Data con Hadoop y Spark desde cero
Este curso te dará una visión amplia, clara y práctica de todas las tecnologías que necesitas para introducirte en el mundo Big Data. Explicaremos cada una de ellas y haremos prácticas para que entiendas cómo encajan entre sí a la hora de construir una solución completa que resuelva problemas reales. Los perfiles big data están entre los más buscados y mejor pagados del mercado y este curso es la introducción ideal para empezar en este campo apasionante y darle un impulso a tu carrera. Veremos las principales tecnologías relacionadas con Hadoop (HDFS, MapReduce, YARN, Spark, Hive, Impala, Pig, Oozie, Sqoop, etc.) y con Spark, el framework de desarrollo más utilizado en el mundo Big Data por su gran velocidad de procesamiento. Hemos seleccionado cuidadosamente todo lo que necesitas saber para introducirte rápidamente en el mundo Big Data. Mi experiencia en formación y en desarrollo de este tipo de proyectos para grandes empresas me ha permitido diseñar el curso teniendo en cuenta lo que necesitan conocer los profesionales y lo que demanda el mercado. El curso está pensado para que entiendas los fundamentos y los conceptos principales del mundo Big Data. Incluye además diversos casos y prácticas que, además de permitir poner en práctica lo aprendido, sirven como introducción a problemas y situaciones del mundo real. Al terminar el curso serás capaz de:
Crear aplicaciones y analizar datos usando las tecnologías más importantes del mundo Big Data: Hadoop, Hive, Impala, Pig, Sqoop, Oozie, etc.
Crear aplicaciones con Spark, un framework de desarrollo que es cada vez más utilizado en el mundo Big Data.
Instalar una máquina virtual en tu ordenador y practicar con un clúster virtualizado muy similar al que te vas a encontrar en la mayoría de las empresas que utilizan big data
Iniciar un portfolio de proyectos similares a los que te encontrarás en el mundo real, con código que podrás utilizar para tus propios proyectos En el curso hablaremos de algunos aspectos relevantes de la configuración de un clúster aunque no se incluye la instalación del mismo desde cero ya que el curso está orientado a ingenieros de software, desarrolladores y consultores más que a administradores de sistemas. Para que puedas empezar a practicar desde el primer momento, se proporciona una máquina virtual que ya viene preparada con todo lo necesario junto a una guía detallada de cómo descargarla y ejecutarla en tu ordenador.
What You Will Learn?
- Las principales tecnologías Big Data para aprender y mejorar tu currículum .
- Crear aplicaciones con Spark, el framework de desarrollo más utilizado del mundo Big Data. .
- Crear aplicaciones para procesar Big Data utilizando las principales herramientas del ecosistema Hadoop .
- Almacenar grandes volúmenes de datos con HDFS .
- Procesar grandes volúmenes de datos con MapReduce .
- Procesar grandes volúmenes de datos en tiempo casi real con Spark .
- Acceder a las herramientas del clúster mediante el interface Hue o la linea de comandos .
- Volcar datos al clúster usando Sqoop .
- Trabajar con datos estructurados en Hive .
- Hacer consultas SQL interactivas con Impala .
- Planificar los trabajos del clúster con Oozie .
- Para qué sirve un gestor de recursos del clúster como YARN Show moreShow less.