Máster en Big Data y Analytics

Big Data y Analytics

Máster online en Big Data y Analytics

El Máster en Big Data y Analytics nace a raíz de la unión entre la amplia experiencia en formación e investigación, en el ámbito de la tecnología, que caracteriza a la UPC, avalada por el reconocimiento y las acreditaciones que posee, tanto a nivel nacional como internacional; y, la experiencia en formación online, con foco tecnológico y de negocios, de OBS. 

La estructura del Máster en Big Data y Analytics permitirá a los alumnos identificar cuándo el tipo de soluciones de Big Data pueden ayudar a la organización y gobernar su implantación dentro de la misma. A lo largo del programa, se verán tres grandes bloques:

  • Bloque I. Gerencia y almacenamiento.
  • Bloque II. Procesos y análisis.
  • Bloque III. Visualización y negocio.

Durante el programa se aplicarán los conocimientos sobre soluciones tecnológicas de forma práctica, ya que el objetivo es acercar al alumno a la tecnología actual existente en el mercado para poder tocarla y ver su aplicabilidad.

Objetivos del programa

Con un ecosistema de 1.000 soluciones de Big Data, dentro de un mercado cambiante que no para de crecer año tras año, es necesario adaptarse continuamente y definir correctamente las bases de las arquitecturas, pero siempre bajo el paraguas de las expectativas de negocio.

Los grandes volúmenes de datos, la variedad y la velocidad no van a conseguir más que derrochar recursos de una organización que no tiene claro lo que quiere resolver. Por ello, saber por qué y qué espera obtener una organización (reducción de costes o aumento de ingresos) son elementos que marcarán la viabilidad de un proyecto de Big Data.

El Máster en Big Data y Analytics ofrece un enfoque básicamente práctico y riguroso orientado a la implantación de la tecnología Big Data con garantías de éxito.

Objetivo general

El objetivo general del Máster en Big Data y Analytics es proporcionar los conocimientos necesarios para gestionar un proyecto de Big Data desde todas sus vertientes, empezando desde cómo identificar la oportunidad en una organización hasta qué se entrega a las áreas de negocio.  

El Máster en Big Data y Analytics se centra en más de una solución. El objetivo es que el/la profesional responsable pueda identificar si una organización se encuentra delante de un reto de Big Data y tener un proceso definido de los pasos a seguir: identificar la tipología de soluciones que debe adoptar; los perfiles profesionales que va a necesitar; preparar un plan de viabilidad económica y tener los fundamentos para manejar su escalabilidad.

Objetivos específicos

El plan de estudios del Máster en Big Data y Analyitcs está diseñado para alcanzar los siguientes objetivos específicos:

  • Entender cómo transformar una organización tradicional, mediante la aplicación del concepto de análisis de datos o Big Data Analytics, en una data driven organization.
  • Conocer los principales frameworks tecnológicos del mercado y sus principales aplicaciones: Hadoop, Spark, Neo4j.
  • Identificar cuáles son las diferentes tipologías de información, su almacenamiento y procesos de calidad.
  • Entender cómo extraer conocimiento de los datos para generar modelos predictivos vía estadística predictiva y machine learning.
  • Dominar las técnicas de gobierno de datos: adquisición, almacenado, proceso, análisis, visualización.
  • Descubrir las nuevas técnicas de visualización de dashboards para mejorar la toma de decisiones.

Salidas profesionales

En OBS apostamos por la formación como motor de cambio, de crecimiento y de mejora tanto personal como profesional. La aplicación en el ámbito profesional de las competencias desarrolladas, a lo largo del programa, contribuirán al crecimiento y mejora de los estudiantes, así como de sus empresas.

La transformación digital de las empresas es una realidad y esto implica cambios en las diferentes áreas funcionales de las mismas. Es por este motivo que los profesionales deben estar preparados para poder hacer uso de las nuevas herramientas que proporciona el nuevo entorno tecnológico.

Las salidas profesionales se agrupan en:

  • Responsable de proyectos Big Data y analítica avanzada de negocio.
  • Consultor externo.
  • Responsable de infraestructuras Big Data Analytics en el área TIC.
  • Chief Data Officer.
  • Analista de datos.

BLOQUE I. Gerencia y almacenamiento

Curso nivelador Big Data

En paralelo al módulo 1, los estudiantes inician el programa de Big Data y Analytics con este curso nivelador que provee de las bases de conocimiento técnicas necesarias para cursar el programa y para llevar cabo proyectos de Big Data. En este curso, los estudiantes encontrarán recursos materiales que les permitirán profundizar en diferentes temas necesarios para el seguimiento del curso y realizarán exámenes tipo test que les servirán como guía para la evaluación de sus conocimientos y la evaluación final del curso.

Módulo 1. Gerencia del Big Data Analytics

En este módulo introduciremos los conceptos fundamentales del Big Data para saber identificar las claves de cada proyecto y escalabilidad. Descubrir, antes de empezar, la variabilidad de los datos, la volumetría y la velocidad, nos servirá para identificar qué fases se deben llevar a cabo antes de arrancar un proyecto de Big Data y, lo más importante, ¿qué retorno esperamos del proyecto? ¿qué expectativas tiene negocio?

Objetivos:

  • Identificar cuándo un proyecto es Big Data.
  • Encontrar el ROI en un proyecto de Big Data.
  • Entender y aplicar los conceptos de Dark Data y Open Data.
  • Orientar la organización para que sea una Data Driven organization y respalde el proyecto.
  • Conocer la legalidad de los datos.
  • Definir la figura del Data Science dentro de una organización.

Módulo 2. Arquitectura Big Data

El ecosistema de soluciones Big Data será tan grande como tipologías de datos y capacidad de proceso necesitemos en el proyecto. La mayoría de ellas se centran en la escalabilidad, diversidad y están basadas, principalmente, en entornos Cloud. Algunas compañías no quieren subir sus datos más críticos en la nube y prefieren tenerlos in house, otras prefieren entornos 100% Cloud o híbridos.

En este módulo descubriremos los PROs y los CONs de cada arquitectura, los principales proveedores de soluciones y cómo podemos construir entornos lo más elásticos posibles, buscando siempre la arquitectura más eficaz en soluciones y coste.

Objetivos:

  • Descubrir las tipologías de arquitecturas On Premise, Híbrida, On Cloud.
  • Entender el rol de Hadoop y HDFS como fundamentos para la paralelización de procesos.
  • Conocer que es Spark y el ecosistema Hive, Pig, Sqoop y Flume.
  • Identificar las ventajas de Kubernetes y Databricks.

Módulo 3. ETLs y ELTs

La información la podemos obtener tanto de fuentes externas a la organización (redes sociales, open data, entro otras) como de bases de datos internas (CRMs, ERPs, transaccionales, entre otras.). Todos estos datos deberán ser transformados antes de leerlos o después para posteriormente tratarlos mediante procesos de agregación que nos permitan obtener KPIs.

En este momento, deberemos definir reglas de calidad para verificar que los datos son correctos y no empobrecen nuestro Data Lake.

En este módulo aprenderemos a definir las bases que debe tener todo proceso de carga de datos para garantizar una integridad, sanitización, historificación y recursividad en las cargas.

Objetivos:

  • Entender la diferencia entre ETLs y ELTs.
  • Comprender los beneficios de los procesos ETLs.
  • Identificar KPIs para MDM.
  • Integrar los diferentes sistemas.
  • Ser capaz de gestionar el uso de las excepciones.
  • Comprender la diferencia de Data Lake y Data Warehouse.

Módulo 4. Data Lakes

Registrar grandes cantidades de información requiere de diferentes tipologías de base de datos, más allá de las relacionales con un enfoque más tradicional; por ejemplo, el vídeo, las rutas o los caminos críticos, los documentos o las redes sociales son fuentes de datos cada vez más habituales entre las fuentes de información que interesan a un negocio.

El mercado tecnológico se ha adaptado a todas ellas y ha creado soluciones para poder almacenarlas y explotarlas de forma óptima. En este módulo descubriremos sus ventajas e inconvenientes, realizaremos pequeñas prácticas sobre cada una de ellas para explorar su potencial.

Objetivos:

  • Conocer las bases de datos relacionales vs NOSQL.
  • Conocer las bases de datos columnares.
  • Conocer las bases de datos de grafos. Neo4j.
  • Conocer las bases de datos documentales.
  • Descubrir fuentes de datos externas a la organización para enriquecer nuestro Data Lake.
  • Entender el rol de los Streams de datos en la toma de decisiones a tiempo real.

 

BLOQUE II. Procesos y análisis 

Módulo 5. Data Mining

En este módulo aprenderemos a extraer información del conjunto de datos del Data Lake y, sobre todo, a convertirla en interpretable. En todo el proceso, deberemos tener claros los objetivos de negocio, las herramientas que nos ayudarán a sanitizar los datos, a determinar qué modelos matemáticos son mejores y a cualificar los resultados.

Objetivos:

  • Seleccionar el conjunto de datos que mejor puede resolver la pregunta de negocio, de entre los datos disponibles.
  • Transformar el conjunto de datos de entrada.
  • Seleccionar la técnica de minería de datos más adecuada, por ejemplo, redes neuronales, árboles de decisión, clustering oreglas de asociación.
  • Entender el proceso de extracción de conocimiento.
  • Interpretar y evaluar los datos.

Módulo 6. Advanced analytics: R y Python

Una vez dispongamos de unos datos correctos habrá llegado el momento de extraer el conocimiento, interpretarlos y llevar el conocimiento a un nuevo nivel. En este módulo, sentaremos una pequeña base estadística para poder trabajar con dos de las principales herramientas de Advanced Analytics del mercado: R y Python. Con ellas se realizarán pequeñas prácticas para descubrir cuándo usar cada una de ellas y extraer el máximo potencial de los datos.

Objetivos:

  • Conocer las bases dela estadística y del cálculo de probabilidades.
  • Aplicar el análisis multivariante de datos.
  • Entender y aplicar las series temporales.
  • Entender el proceso de control estadístico de la calidad de los datos.
  • Calcular correlaciones y patrones.
  • Conocer el proceso de clusterización de los datos.

Módulo 7. Machine Learning

En los módulos anteriores se ve cómo interpretar los datos existentes, cómo extraer conocimiento de todo lo que nos ha sucedido. En este módulo nos acercaremos al Machine Learning para ver cómo, con buena información, podemos acercarnos a los predictivos. Descubriremos las principales técnicas y herramientas de mercado, qué tipología y volumen de información es necesaria y realizaremos pequeños módulos prácticos para ver su aplicabilidad.

Objetivos:

  • Entender la diferencia entre aprendizaje supervisado y aprendizaje no supervisado.
  • Conocer las diferentes técnicas de clasificación, de los árboles de decisiones a las técnicas bayesianas.
  • Entender el concepto de aprendizaje automático.
  • Identificar los principales softwares de código abierto y comercial.

 

BLOQUE III. Visualización y negocio

Módulo 8. Data Governance.

Una vez tenemos toda la información, debemos definir las reglas de uso: quién puede ver los datos, la definición de cada dato, linaje y dotar a los usuarios de las herramientas para poder interpretarlos.

El gobierno del dato es donde muchas empresas fracasan, tener dos valores diferentes para un mismo KPI o predictivo, provoca desconfianza entre las diferentes áreas de negocio.

En este módulo, aprenderemos las técnicas de gobierno de la información para mantener la integridad, seguridad y trazabilidad, para garantizar que los datos ayuden a la toma de decisiones seguras sin generar desconfianza.

Objetivos:

  • Entender qué es la accesibilidad de los datos.
  • Gestionar los datos como un activo.
  • Asegurar la integridad.
  • Definir los principales KPIs y trazabilidad de los datos.
  • Entender el concepto de securización.

Módulo 9. Técnicas de visualización

En este módulo descubriremos cuáles son las diferentes técnicas de visualización de datos y cuándo utilizar cada una de ellas. Los grandes volúmenes de datos necesitan de nuevas representaciones gráficas para poder interpretarlos: mapas de calor, clústeres, dimensionales, caminos críticos, entre otros.

Además de los gráficos, es importante asociar la valoración a cada uno de ellos y generar una interpretación. Los indicadores pueden confundir y dificultar la toma de decisiones, orientarlos, ponerlos en contexto y subjetivarlos ayudará a una mejor interpretación:

Objetivos:

  • Descubrir las tipologías disponibles de gráficos.
  • Conocer los casos de uso y sus principales representaciones gráficas.
  • Entender el proceso vinculado al paso delos gráficos al Story tellling de negocio.
  • Saber simplificar y agregar datos para Dashboards de dirección.

Módulo 10. Herramientas de data visualización y autoservicio

Finalmente, como el ecosistema de herramientas de visualización es complejo, será importante escoger el más adecuado para cada tipo de organización. Habrá que tener en cuenta que en una organización se busca simplificar la tecnología y deberemos buscar una solución para toda la organización. Es sólo entonces cuando podremos garantizar fácilmente la seguridad, accesibilidad y disponibilidad de los mismos KPIs.

El autoservicio es una pieza clave en organizaciones grandes con delegaciones, sucursales, etc. Permite descentralizar la información y convertir cada nodo de la organización en autónomo.

En este módulo descubriremos las principales herramientas de data visualization y autoservicio. 

Objetivos:

  • Identificar las principales herramientas de mercado:Qlikview/sense, Tableau, PowerBI, Cognos.
  • Conocer los puntos fuertes y puntos débiles de cada una ellas.
  • Realizar un caso práctico con Qliksense y el autoservicio de datos.

 

PROYECTO FINAL

Durante el Proyecto Final de Máster (PFM), el estudiante trabajará mano a mano con una empresa real en el desarrollo de un proyecto.  Éste tendrá la opción de realizarlo para su propia empresa o bien escoger entre las opciones planteadas por la escuela.

Los proyectos propuestos podrán adoptar dos enfoques, Business y/o Tecnológico, y dentro de estos enfoques podrán adoptar múltiples formas, algunos ejemplos son:

Enfoque 1. Business

  1. Ejemplo 1. Desarrollo del Business Plan incluyendo equipo, infraestructura y entregables a negocio en un caso teórico empresarial con diferentes tipologías de datos.
  2. Ejemplo 2. Proyecto de consultoría de negocio de un caso real empresarial.

Enfoque 2. Tecnológico

  1. Ejemplo 1. Desarrollo de los Dashboards de negocio con una herramienta de mercado con diferentes tipologías de datos y definición de indicadores.

 

Talleres

En el Máster en Big Data y Analytics el estudiante tendrá la oportunidad de realizar 2 talleres prácticos. Estos talleres son:

Taller 1. Neo4j

En este taller conoceremos, técnicamente, cómo funcionan las Bases de datos de grafos. Cómo aprovechar la potencia que pueden aportar a la hora de buscar los caminos críticos más usados, recurrencias jerárquicas en frente de las bases de datos relacionales.

Taller 2. Watson

Las soluciones para montar un entorno de Inteligencia Artificial/Machine Learning pueden pasar por diferentes productos Open Soucer interconectados, o bien por una solución que agregue los principales productos de mercado y nos garanticen la interoperabilidad entre versiones, upgrades automáticos y contratación como servicio. Estas son las principales ventajas de Watson y, en este taller, meramente práctico, descubriremos como aprovisionar un entorno para nuestros Data Science en los que podamos gobernar las soluciones y el coste.

 

Herramientas

Durante todo el curso nos acercaremos a las principales soluciones de mercado en cada una de las capas que componen una solución de Big Data. Los principales partners de soluciones (IBM, Amazon, Google Cloud, Azure), Bases de datos (Neo4J, HDFS, Cassandra, MongoDB), ETLs (Kafka, Pentaho, Powercenter), presentación (Tableau, Qlik) entre otras.

El Máster no busca formar tecnológicamente a sus alumnos en cada una de estas herramientas, sino acercarse desde un punto de vista teórico, ver los PROs y CONs de cada una de ellas y realizar pequeñas prácticas para comprender de primera mano su funcionamiento. Las prácticas serán sencillas y de fácil resolución no siendo el enfoque principal, pero si buscando no ser un máster puramente teórico.

Metodología

STUDENT ON

 

Una metodología donde el core es el estudiante. Un estudiante conectado siempre con la actualidad, líder del mundo empresarial y en constante búsqueda de la excelencia. Un estudiante activo y conectado para crecer e inspirar a la sociedad.

Siempre avalado por docentes practitioners de prestigio internacional, que comparten sus conocimientos y experiencia, impulsando el desarrollo profesional del estudiante. Con un método ágil, flexible y colaborativo que permite la conciliación de la vida laboral y personal.

Esta metodología se basa en un modelo pedagógico innovador que permite a los alumnos aprender en un entorno 100% online simulando el complejo mundo profesional que afrontan  día a día dentro de las empresas. La didáctica se focaliza en la realización de diferentes módulos consecutivos que abordan las diversas asignaturas del plan de estudios para poder avanzar en el proceso de aprendizaje de una manera flexible y organizada.

Una de las bases principales que hace posible el proceso de aprendizaje de STUDENT ON es el claustro docente de OBS Business School. Formado por profesores practitioners de prestigio, con perfil internacional, innovador, en activo, con amplia experiencia en su sector y conocedores del mercado actual y de las innovaciones tecnológicas.

STUDENT ON tiene como pilar fundamental al alumno. Es por ello, que desde OBS Business School se realiza un seguimiento personalizado durante todo el curso académico en el que los estudiantes podrán contar con el apoyo de su Program Manager, una figura académica que acompaña al alumno durante toda su formación.

Este método ofrece una experiencia educativa única y diferente que proporciona la asimilación de conocimientos de una forma práctica. Se simulan situaciones de la vida empresarial real relacionadas con el mundo laboral en las que se desarrollarán: capacidades directivas, de liderazgo y de trabajo en equipo. Un método de gestión de habilidades y competencias personales y profesionales en management a través de diferentes elementos de aprendizaje (consultar los elementos específicos del máster en el plan de estudios):

  • CASE STUDIES: Se estudian y analizan situaciones reales del entorno empresarial para que los alumnos puedan aplicar todos los conocimientos adquiridos en la toma de decisiones.
  • TALLERES DE DESARROLLO DE HABILIDADES: Se realizan talleres en los que los alumnos descubren y desarrollan las diferentes habilidades que poseen tanto a nivel comunicativo, como directivo o de negociación para su crecimiento profesional. Algunos de los workshops que se hacen son: mindfulness y gestión del estrés, competencias directivas, habilidades y competencias coaching, storytelling y comunicación corporativa, desarrollo directivo, comunicación efectiva, habilidades y técnicas de negociación, coaching aplicado a la CEM: empatía, etc.
  • DEBATES: Además de potenciar sus habilidades profesionales, los estudiantes desarrollan su pensamiento crítico a través de la participación en debates de calidad. En ellos, se potencian las sinergias entre los diferentes conocimientos y experiencias de los alumnos y docentes.
  • SIMULADORES: Uso de programas y herramientas que recrean de manera real situaciones empresariales para poder valorar las consecuencias de la toma de decisiones y los resultados de las mismas. 
  • SOFTWARES: Los conocimientos tratados en los diferentes Másters se ponen en práctica mediante el uso de diferentes softwares destacados en el mundo empresarial.
  • TRABAJO FINAL DE MÁSTER / BUSINESS PLAN: Todos los alumnos de OBS realizan el Trabajo de Final de Máster dentro del marco de una empresa real y actual, mediante el cual culminan su proceso de aprendizaje aplicando todos los conocimientos adquiridos.

Requisitos del Máster en Big Data y Analytics

Perfil de los estudiantes y requisitos de admisión

Los módulos del programa están pensados para profesionales de cualquier sector que quieran implantar un proyecto de Big Data en su empresa, identificar qué tipos de proyectos son de esta tipología y definir el mejor roadmap para el proyecto con el fin de resolverlo de forma exitosa.

Los perfiles de procedencia son:

  • Graduados en ingenierías técnicas, ADE y ciencias (Medicina, Matemáticas, Física, Química).
  • Profesionales que estén trabajando en el sector TIC.
  • Cargos intermedios de empresas que quieran tener una posición ventajosa ante futuras oportunidades en su empresa.
  • Profesionales del sector BI (Business Intelligence) tradicional que quieran ampliar su conocimiento.
  • Perfiles técnicos/consultores que actualmente trabajen con datos y que quieran tener una visión de management end-to-end.

Titulación

Una vez finalizado el programa, los estudiantes obtendrán:

  • Un título propio de Three Points.
  • Un título propio acreditado por la UPC, si se cumplen los requisitos de la Universidad al finalizar el programa

 

Marc Subirà

  • Responsable de DATA y Deporte en FC Barcelona.
  • Máster Advanced CIO en ESADE.
  • Ingeniero en Informática de gestión.
  • CEO de dos medios digitales de comunicación.

Claustro de Profesores

Francesc Taxonera

  • Arquitecto de clientes Sistemas y General Business en IBM.
  • Ingeniero Superior de Telecomunicaciones (UPC).
  • Máster Internacional en Administración de Empresas (La Salle).
  • Máster Certified Architect (The Open Group).

Enrique Mora

  • Artificial Intelligence Solutions Architect en Nestlé.
  • Postgrado en Inteligencia Artificial por la UNED.    
  • Licenciado en Matemáticas por la UB.
  • Máster en seguridad informática por UAB.

Daniel Alba

  • Project Manager en atSistemas.
  • Data Project Manager en FC Barcelona.

Ignasi Alcalde

  • Consultor de IA from data to knowledge.
  • Máster Universitario Sociedad Información y Conocimiento por la UOC.
  • Grado en Multimedia por la UOC.

Ernesto Lores

  • Responsable de proyectos en Aquiles Solutions.
  • Licenciado en Matemáticas por la UB.
  • Máster en Ingeniería de Software por la UPC.
  • Ingeniero en Informática de sistemas por la UNED.

Jordi Cahue

  • Arquitecto IT Senior en IBM.
  • Miembro de la Academia de Tecnología de IBM.
  • Ingeniero en Sistemas de Información por la Universitat Politécnica de Catalunya.
  • Curso en Machine Learning por Standford University.

Albert Fernández

  • Consultor de Business Inteligence en Abast.
  • Ingeniero Industrial por la Universitat Politécnica de Catalunya.
  • Certificación de Data Architect, Designer y Developer por Qlik.
  • Dedicación60 ECTS
  • InicioMayo 2020
  • Duración12 meses
  • Precio7.200 €
  • MetodologíaOnline
  • Idioma de ImparticiónEspañol