Cerrar

Certificado Profesional Big Data (CPBD)

Certificado Profesional Big Data (CPBD)

¿Por qué realizar la “Big Data Professional Certificate (BDPC)”?

Centro Europeo de Empresas e Innovación de Valencia

Centro Europeo de Empresas e Innovación de Valencia

Publicado el martes, 29 de diciembre de 2020 a las 17:28

>>> QUIERO INSCRIBIRME <<<

Con la certificación profesional en Big Data, comprenderás la importancia del análisis de datos y cómo puedes obtener ideas que conduzcan a mejores decisiones y cambios estratégicos de negocio.

El Big Data se refiere a un conjunto de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales.

La Certificación Profesional Big Data tiene como propósito enseñar a profesionales y organizaciones a identificar los problemas de una forma comprensible utilizando Big Data, para proporcionar soluciones útiles con la gran cantidad de información y con datos que pueden ser moldeados o probados de cualquier manera que se considere adecuada. 

¿Qué voy a aprender con el Certificado Profesional Big Data (CPBD)?

Al certificarte con el Certificado Profesional en Big Data (CPBD) serás capaz de:

  • Comprender Big Data y sus poderosos beneficios comerciales.
  • Conocer las diferencias entre Big Data y datos convencionales.
  • Aprender las 4 V’s de Big Data: Volumen, velocidad, variedad y veracidad.
  • Conceptualizar el ecosistema Big Data y sus componentes claves.
  • Apreciar los principales desafíos tecnológicos en la administración de Big Data.
  • Relacionarse con las soluciones tecnológicas claves para abordar esos desafíos.

¿A quién va dirigido?

  • Este curso es apropiado para ingenieros, técnologos, técnicos y profesionales que estén interesados en Big Data.
  • Cualquier persona que esté interesada en ampliar sus conocimientos en Big Data y deseen cubrir unas necesidades no satisfechas por las tecnologías existentes en el almacenamiento y tratamiento de grandes volúmenes de datos.
  • No hay requisitos previos para este curso y su certificación.

Metodología del Programa

El programa está basado en el aprendizaje práctico y la colaboración entre los alumnos con la ayuda y mentorización del profesor.

El eje fundamental del programa consiste en facilitarte (al alumno) una experiencia de aprendizaje real a través de casos prácticos y proyectos.

A través de esta experiencia de aprendizaje, tú adquirirás el conocimiento y la experiencia para la resolución de un problema y por tanto la capacidad de poder resolverlo en el ámbito profesional.

De este modo, tú mismo te convertirás en el eje y constructor de tu propia experiencia de aprendizaje, con la guia y el acompañamiento del profesor.

Estructura del Programa

Lo primero que verás al acceder al programa será el Caso Práctico o Proyecto que tienes que desarrollar.

Así podrás conocer el alcance de tu aprendizaje a través de la práctica aplicada.

A partir de aquí, irás avanzado semana a semana sobre los contenidos, las experiencias y los conocimientos que deberás adquirir.

Los módulos de tu programa constan de:

  • Video presentación
  • Test Inicial para evaluar tu conocimiento de partida
  • Caso práctico y/o proyecto
  • Clases:
    • Recursos de aprendizaje: Videos, lecciones, ejemplos, herramientas, experiencias…
    • Debates tutorizados con otros alumnos
    • Foro de dudas
  • Masterclass
  • Test final para evaluar tu conocimiento tras el programa

Plan de Estudios

  • Módulo 1 – Integridad de Big Data
    • Objetivos de Aprendizaje
    • Integridad
    • Contexto de Big Data
    • Velocidad
    • Variedad
    • Veracidad
    • Aplicaciones de Big Data
    • Analizando Big Data
    • Tablero en Tiempo Real
    • Resumen de Desafíos y Soluciones
    • Comparación de Tradicionales y Big Data
    • Preguntas de Revisión
    • Ejercicio Práctico de Liberty Stores: Paso B1
  • Módulo 2 – Fuentes y aplicaciones de Big Data
    • Objetivos de Aprendizaje
    • Ecosistema/Arquitectura de Big Data
    • Aplicación de Google Flu
    • Fuentes de Big Data Sources
    • Comunicaciones Entre Personas
    • Comunicaciones Entre Personas y Máquinas
    • Comunicaciones Máquina a Máquina
    • Aplicaciones de Big Data
    • Monitoreo de Sensibilidad del Consumidor
    • Aplicaciones de Big Data
    • Aplicación de Vigilancia Predictiva
    • Aplicaciones de Big Data
  • Módulo 3 – Arquitecturas de Big Data
    • Objetivos de Aprendizaje
    • Arquitectura de Google Query
    • Ecosistema / Arquitectura de Big Data
    • Capas en Arquitectura de Big Data
    • Arquitectura IBM Watson
    • Arquitectura de Netflix
    • Arquitectura de VMWare
    • Arquitectura de una Compañía Meteorológica
    • Arquitectura de Ticketmaster
    • Arquitectura de LinkedIn
    • Arquitectura de PayPal
  • Módulo 4 – Computación Distribuida Utilizando Hadoop
    • Objetivos de Aprendizaje
    • Ecosistema / Arquitectura de Big Data
    • Hadoop y MapReduce Definidos
    • ¿Por qué la computación en Clúster?
    • Arquitectura de Hadoop: Fragmentación de Datos
    • Arquitectura Maestro-Esclavo
    • Arquitectura de Lectura y Escritura del Sistema de Archivos Distribuidos Hadoop (HDFS)
    • Características de HDFS
  • Módulo 5 – Procesamiento Paralelo con MapReduce
    • Objetivos de Aprendizaje
    • Arquitectura de Big Data
    • Secuencia de MapReduce
    • MR Funciona como una Secuencia de UNIX
    • Contador de Palabras Usando MapReduce
    • Conteo de Palabras Usando MapReduce – Ejemplo 2
    • Seudo Código MapR para Contador de Palabras
    • Ejemplo de Contador de Palabras (Inglés): Myfile.txt
    • Resultados de Cada Segmento
    • Resultados Agrupados de Map
  • Módulo 6 – Bases de Datos NoSQL
    • Objetivos de Aprendizaje
    • Arquitectura de Big Data
    • Bases de Datos NoSQL
    • NoSQL vs RDBMS
    • Teorema CAP
    • Arquitectura NoSQL
    • Tipos de Bases de Datos NoSQL
    • Arquitecturas NoSQL Populares
  • Módulo 7 – Procesamiento Stream con Spark
    • Objetivos de Aprendizaje
    • Arquitectura de Big Data
    • Computación Definida en Stream
    • Conceptos de Streaming
    • Aplicaciones de Streaming
    • Características del Algoritmo
  • Módulo 8 – Nueva Ingestión de Datos
    • Objetivos de Aprendizaje
    • Arquitectura de Big Data
    • Sistema de Ingestión de Datos Sistemas de Mensajería
    • Arquitectura de Apache Kafka
    • Componentes de Kafka
    • Mecanismo de Tópicos
  • Módulo 9 - Computación en la Nube
    • Objetivos de Aprendizaje
    • Arquitectura de Big Data
    • Computación en la Nube
    • Modelo de Acceso a la Computación en la Nube
    • Computación en la Nube como una Infraestructura Virtualizada

>>> QUIERO INSCRIBIRME <<<

5
2.753 visitas

Utilizamos cookies propias y de terceros para ofrecerte toda la funcionalidad y una mejor experiencia, obtener estadísticas de tráfico, analizar el uso de la web y mejorar nuestros servicios.
Tienes disponible aquí nuestra política de cookies.
Puedes aceptar todas nuestras cookies pulsando el botón 'ACEPTAR' o configurar aquí tus preferencias.

Estrictamente necesarias +

Estas cookies son necesarias ya que permiten que el sitio web funcione correctamente, no se pueden desactivar.

Estadísticas +

Son las cookies que utilizamos exclusivamente con fines estadísticos para poder analizar cómo los usuasrios hacen uso de la web. Recopila información anónima tal como el número de visitantes del sitio, o las páginas más populares. Activar estas cookies nos permite seguir mejorando.

Funcionales +

Estas cookies son necesarias para el intercambio y presentación de contenidos de plataformas externas como youtube o de redes sociales como facebook, twitter o linkedin.

Marketing y publicidad +

Estas se utilizan para crear perfiles de usuario y analizar la efectividad de campañas publicitarias o para rastrear al usuario en un sitio web o en varios sitios web con fines de marketing similares..

GUARDAR AJUSTESACEPTO