When you enroll through our links, we may earn a small commission—at no extra cost to you. This helps keep our platform free and inspires us to add more value.

Udemy logo

Spark y Python con PySpark en AWS para Big Data

Big Data, Computación Paralela, RDDs, Spark SQL DataFrames y Spark MLlib todo en Python y Jupyter Notebooks

     
  • 4.4
  •  |
  • Reviews ( 571 )
₹519

This Course Includes

  • iconudemy
  • icon4.4 (571 reviews )
  • icon4h 28m
  • iconenglish
  • iconOnline - Self Paced
  • iconprofessional certificate
  • iconUdemy

About Spark y Python con PySpark en AWS para Big Data

Este curso es parte del

Data Engineering Bootcamp

de

Datademia

. Visita nuestra web para más información. Hola y bienvenidos a este curso de

Spark y Python con PySpark

. En este curso aprenderás lo que es la

computación paralela

utilizando

Spark y Python con PySpark

en un

Jupyter notebook

que corre en

AWS (Amazon Web Services)

. Spark es un framework de programación para datos distribuidos y es de los más utilizados para el Big Data hoy en día. En este curso aprenderás a trabajar con

Spark y sus RDDs

, con

Spark SQL y sus DataFrames

y aprenderás la sintaxis básica de

Spark ML

, para algoritmos de aprendizaje automático o Machine Learning. Este curso está diseñado para cualquier persona que quiera empezar a meterse en el mundo del big data con Spark y Python. Es un curso totalmente práctico y dinámico en el que empezarás desde cero con Spark. Empezaremos con una introducción al big data, a la computación paralela y a Apache Spark. Luego os llevaremos paso a paso para crear una cuenta de AWS, crear una máquina virtual utilizando el sistema de computación EC2 y configurar todo lo necesario para poder utilizar Spark y Jupyter Notebooks en AWS. En las primeras partes del curso trabajaremos con

Spark y su formato RDD (Resilient Distributed Datasets o Datos Distribuidos Resilientes)

. Luego trabajaremos con

Spark SQL y sus DataFrames

y acabaremos aprendiendo a implementar un algoritmos de regresión lineal en

Spark ML

. Como ves hay mucho temario. Iremos paso a paso explicando primero la teoría y después haciendo casos prácticos. Mi nombre es Sebastian y he trabajado durante muchos años en diferentes empresas tecnológicas con el Big Data en Barcelona. He trabajado siempre con datos, desde la extracción y manipulación de datos hasta la creación de dashboards y programación de modelos de aprendizaje automático. Te invito a que veas la presentación completa del curso y las lecciones gratuitas. Cualquier duda que tengas me puedes contactar por mensaje privado dentro de la plataforma. Te espero en el curso, un saludo y muchas gracias.

What You Will Learn?

  • Sobre el Big Data y la computación paralela .
  • A trabajar con Spark RDDs en pyspark .
  • A trabajar con Spark SQL y sus DataFrames en pyspark .
  • A trabajar con Spark MLlib en pyspark.