PcComponentes
Mi Cuenta
producto
  • Grupo Atrium Máster Big Data Analytics and Processing Foundations 500 Horas
    • Grupo Atrium Máster Big Data Analytics and Processing Foundations 500 Horas
    • Grupo Atrium Máster Big Data Analytics and Processing Foundations 500 Horas
    Cargando imágenes ...

    Grupo Atrium Máster Big Data Analytics and Processing Foundations 500 Horas

    Sé el primero en opinar
    P/N: Atrium-BDOL | Cod. Artículo: 479389
    No disponible
    No disponible

    Disponibilidad del producto Sin fecha exacta de entrada

    Avísame cuando esté disponible
    ¡Quiero suscribirme al newsletter y recibir las mejores ofertas y novedades! 🔥
    He leído y acepto las Condiciones generales y la Política de privacidad de PcComponentes.
    No disponible
    Características
    Opiniones0
    Preguntas y respuestas0
    Comparados
    Sobre el producto

    ¡Importante! Se trata de una formación online, no presencial. Tras la compra, en las 24 horas laborables siguientes, recibirás un email con las instrucciones de la inscripción y los accesos a la formación.

    ¿Te gustaría trabajar en una empresa gestionando grandes bases de datos?, nuestro máster en Big Data es lo que estás buscando. Nuestra formación te permitirá obtener los conocimientos que estás buscando de una forma sencilla , adaptada a tus horarios y en tiempo récord. Además,  te brindamos la posibilidad de realizar prácticas en empresas y acceso a bolsa de empleo ya que somos agencia de colocación acreditada por el SEPE.

    La tecnología está motivando una época de cambios y las organizaciones necesitan herramientas y conocimientos adecuados para explotar la gran cantidad de datos que producen. Por ello, el Big Data es una de las profesiones más demandadas y con mejor proyección.

    ¿Qué aprenderás?

    • Uso y gestión de datos en bases de datos relacionales, como fuente de datos para los programas.
    • Conocer funcionamiento y uso de las BBDD NOSQL en relación a las bases de datos tradicionales.
    • Adquirir las bases necesarias del lenguaje java, para su posterior aplicación en el desarrollo de programas, así como uso de la interface gráfica, gestión de ficheros y pruebas unitarias, combinadas con la utilización de patrones y buenas prácticas de programación.
    • Adquirir las bases necesarias del lenguaje Python, para su posterior aplicación en el desarrollo de programas, y pruebas unitarias, combinadas con la utilización de patrones y buenas prácticas de programación.
    • Conocer las formas de procesamiento/almacenamiento de datos a gran escala. Ecosistema Hadoop.
    • Conocer la programación funcional en Scala para su posterior uso en Spark.
    • Conocer la arquitectura Spak y su impacto en el mundo Big Data. Procesamiento a gran escala con Spark.

    Dirigido a:

    • Aquellas personas que quieran adquirir las capacidades técnicas y analíticas necesarias para especializarse en Analítica de Negocio o Big Data.
    • Profesionales en áreas como Tecnología, negocio o departamentos analíticos que necesitan conocer las técnicas y métodos del “business analytics” para mejorar estrategias y tener una visión más global de la
    • Organización o innovar en grandes empresas.

    *Para realizar nuestro máster no necesitas ningún requisito académico previo,tan solo tienes que disponer de  algunos conocimientos en programación.

    Temario

    • MÓDULO 1: INTRODUCCIÓN SISTEMAS DE INFORMACIÓN
      • Introducción. BI y DWH
      • Sistemas operativos (LINUX, introducción a DOS y PowerShell)
      • Conceptos generales de Linux
      • Comandos, variables de entorno y scripts
      • Control y planificación de procesos
      • Sistemas de almacenamiento y sistemas de ficheros
      • Administración Básica de Linux
      • Introducción DOS y Powershell
      • Técnicas Data Warehousing y SQL
      • Conceptos generales Data Warehouse
      •  Gestor de base de datos.
      •  Lenguaje de manipulación de datos (DML), sentencias Select, insert, update, delete, merge
      • Lenguaje de definición de datos (DDL), sentencias Create, Alter, Drop
      • Operadores aritméticos, lógicos, de relación
      • Funciones de fila simple, de grupo. Subselects, joins
      •   ETL, Extracción, Transformación y Carga de datos
      • Introduction
      •  Database Vs Data Warehouse
      •  Preparacíon de entornos e instalacion
      •  Principales algoritmos en integracion de datos
      •  Principales ETL del mercado: (Pentaho, Talend, Qulick..)
      •  Lectura y escritura de ficheros planos y base de datos
      •  Uso de las principales funciones (agregación, join, uniones, sorters,..)
      •  Carga de un modelo de datos
      • EJERCICIO FINAL DE MÓDULO
    • MÓDULO 2: BASES DE DATOS NOSQL  
      • Introducción a las bases de datos NoSQL
      • ¿Qué son?
      • Tipos de BBDD NoSQL
      • Ventajas y desventajas
      • Introducción a BBDD NOSQL orientada a documentos (MongoDB)
      • CRUD (Create, Read, Update and Delete) y el shell de Mongo DB
      • Uso de cursores en MongoDB
      • Sharding: distribución de la información en múltiples servidores
      • Motores de almacenamiento en MongDb e índices
      • Introducción a BBDD NOSQL orientada a grafos (Neo4j)
      • Introducción.
      • Operaciones y análisis de grafos
      • Cypher Query Languaje
      • EJERCICIO FINAL DE MÓDULO
    • MÓDULO 3: VISUALIZACIÓN   
      • La Visualización de Datos
      • Cómo desarrollar visualizaciones efectivas
      • Recogida de datos y análisis
      • Principales herramientas del mercado: Tableau, Qlick Sense, Power BI…
      • EJERCICIO FINAL DE MÓDULO
    • MÓDULO 4: PYTHON PARA ANÁLISIS DE DATOS
      •  Introducción
      •  Tipos: cadenas, listas, diccionarios, tuplas, etc
      •  Iteración: Loops e ifs
      •  Lectura y escritura de ficheros
      •  Librerías: numpy, matplotlib, pandas, etc
      •  Introducción a modelos predictivos.
      • EJERCICIO FINAL DE MÓDULO
      • MÓDULO 5: HADOOP Y SU ECOSISTEMA
      • Apache Hadoop: Introducción
      • El sistema de almacenamiento de ficheros HDFS y MapReduce
      • Ecosistema Hadoop: hive, sqoop, hue, …
      • Arquitectura de un cluster
      • Arquitectura Yarn
      • Tipos de despliegue Hadoop
      • Streaming
      • Seguridad
    • EJERCICIO FINAL DE MÓDULO
      • MÓDULO 6: SPARK 
      • Introducción a Apache Spark
      •  Módulos Spark:
      •  Spark Sql
      •  Spark Streaming
      •  Spark MLlib
      •  GraphX
      •  Creación y manejo de RDDs
         Pair RDDs
      •  Spark vs MapReduce
      •  HDFS y Spark
      •  Spark en cluster
      •  Programación en Spark:
      •  Spark Java API (Javadoc)
      •  Spark R API (Roxygen2)
      •  Scala API
      •  PySpark Python API
         Introducción a la programación en Scala y PySpark
      •  Estructuras de control básicas
      •  Tipos de datos
      •  Colecciones
      •  Funciones principales
      • EJERCICIO FINAL DE MÓDULO

    Metodología 

    Nos basamos en un aprendizaje práctico basado en ABP (Aprendizaje en Base de Proyectos y resolución de Problemas). Simulando entornos profesionales en cada uno de los ejercicios o actividades.

    • Videoconferencias en directo todas las semanas
    • Docentes del área, caracterizados por ser profesionales en activo en compañías punteras
    • Tutorización personalizada.
    • Acceso a campus 24 horas al día 7 días a la semana
    • Ejercicios , prácticas y proyectos
    • Prácticas en las mejores empresas del sector *
    • Acceso a Bolsa de Empleo

    Seguridad del producto

    Opiniones

    Deja tu opinión

    Te costará un minuto, ayudarás a la gente a decidirse.

    Opiniones de usuarios

    No hay opiniones de momento. ¡Sé el primero!
    Opinión verificada
    Nuestra etiqueta de "opinión verificada" garantiza que esta reseña pertenece al mismo usuario que realizó la compra del producto en nuestra web. Verificamos la autenticidad de las compras y sus reseñas correspondientes, para asegurar que las opiniones etiquetadas de esta forma sean precisas y confiables.

    Preguntas y respuestas

    No hay preguntas de momento. ¡Sé el primero!