When you enroll through our links, we may earn a small commission—at no extra cost to you. This helps keep our platform free and inspires us to add more value.

Spark y Python con PySpark en AWS para Big Data
Big Data, Computación Paralela, RDDs, Spark SQL DataFrames y Spark MLlib todo en Python y Jupyter Notebooks

This Course Includes
udemy
4.4 (571 reviews )
4h 28m
english
Online - Self Paced
professional certificate
Udemy
About Spark y Python con PySpark en AWS para Big Data
Este curso es parte del
Data Engineering Bootcamp
de
Datademia
. Visita nuestra web para más información. Hola y bienvenidos a este curso de
Spark y Python con PySpark
. En este curso aprenderás lo que es la
computación paralela
utilizando
Spark y Python con PySpark
en un
Jupyter notebook
que corre en
AWS (Amazon Web Services)
. Spark es un framework de programación para datos distribuidos y es de los más utilizados para el Big Data hoy en día. En este curso aprenderás a trabajar con
Spark y sus RDDs
, con
Spark SQL y sus DataFrames
y aprenderás la sintaxis básica de
Spark ML
, para algoritmos de aprendizaje automático o Machine Learning. Este curso está diseñado para cualquier persona que quiera empezar a meterse en el mundo del big data con Spark y Python. Es un curso totalmente práctico y dinámico en el que empezarás desde cero con Spark. Empezaremos con una introducción al big data, a la computación paralela y a Apache Spark. Luego os llevaremos paso a paso para crear una cuenta de AWS, crear una máquina virtual utilizando el sistema de computación EC2 y configurar todo lo necesario para poder utilizar Spark y Jupyter Notebooks en AWS. En las primeras partes del curso trabajaremos con
Spark y su formato RDD (Resilient Distributed Datasets o Datos Distribuidos Resilientes)
. Luego trabajaremos con
Spark SQL y sus DataFrames
y acabaremos aprendiendo a implementar un algoritmos de regresión lineal en
Spark ML
. Como ves hay mucho temario. Iremos paso a paso explicando primero la teoría y después haciendo casos prácticos. Mi nombre es Sebastian y he trabajado durante muchos años en diferentes empresas tecnológicas con el Big Data en Barcelona. He trabajado siempre con datos, desde la extracción y manipulación de datos hasta la creación de dashboards y programación de modelos de aprendizaje automático. Te invito a que veas la presentación completa del curso y las lecciones gratuitas. Cualquier duda que tengas me puedes contactar por mensaje privado dentro de la plataforma. Te espero en el curso, un saludo y muchas gracias.
What You Will Learn?
- Sobre el Big Data y la computación paralela .
- A trabajar con Spark RDDs en pyspark .
- A trabajar con Spark SQL y sus DataFrames en pyspark .
- A trabajar con Spark MLlib en pyspark.