IFCT107 Responsable experto de data

CURSO DISPONIBLE EN FORMATO SCORM. CONVOCATORIA TIC 2021.

Curso e-learning IFCT107 Responsable experto de data, de la familia profesional Comercio y marketing.

Este contenido SCORM ofrece una formación integral en Data Science y Big Data, diseñada para capacitar a profesionales en el dominio de los datos y su aplicación en el entorno laboral. Con un enfoque práctico y actualizado, este contenido brinda a las instituciones educativas la oportunidad de:

  • Formar al alumnado en habilidades clave de Data Science, Machine Learning y Deep Learning.
  • Preparar a los estudiantes para trabajar con Big Data y aplicar inteligencia artificial en sus proyectos.
  • Ofrecer una formación completa y adaptada a las demandas del mercado laboral actual.
  • Disponer de un contenido estructurado y detallado que guiará a los alumnos en su aprendizaje.
  • Enriquecer la oferta formativa del centro con un contenido que aborda las últimas tendencias en tecnología y análisis de datos.

Este contenido SCORM de alta calidad y especializado en data destaca por su enfoque práctico y su relevancia para desarrollar las competencias necesarias en el ámbito de la informática y las comunicaciones. Es compatible con la mayoría de las plataformas de teleformación y cuenta con todos los recursos didácticos necesarios.

Categoría: Informática y comunicaciones Etiqueta: Cursos

No ofrecemos cursos a particulares. Nuestros contenidos e-learning solo se ponen a disposición de centros y organizaciones que imparten formación.

Cumple 100 % con el programa formativo oficial.
Formato SCORM compatible con cualquier plataforma de teleformación.
Contenido de máxima calidad actualizado de forma constante.
Incluye recursos didácticos que facilitan la impartición: pruebas de evaluación inicial, exámenes parciales objetivos y subjetivos, guías de aprendizaje y mucho más.

Objetivos

Objetivo general

– Dominar el dato para entenderlo, transformarlo y capturar su máximo potencial con inteligencia artificial para optimizar procesos y simplificar el desarrollo de los proyectos y, comenzar con la creación de modelos de machine learning.

Objetivos específicos

– Analizar desde una visión trasversal cómo la ciencia del dato se aplica en las diferentes áreas de la organización para impulsar sus capacidades (finanzas, recursos humanos, operaciones, atención al cliente…), concienciándose sobre el poder de los datos, tanto para mejorar la toma de decisiones como para crear modelos de negocio basados en datos.

– Entender las nociones claves de estadística, matemáticas y álgebra que son básicas para Data Science; así como la programación en Python para trabajar con los datos.

– Explorar y entender los datos para poder enfocar correctamente un problema, combinando diferentes modelos y, así, crear el que se requiera para dar solución al problema identificado y evaluar su funcionamiento para conseguir su optimización.

– Profundizar en las aplicaciones del Deep Learning en reconocimiento de imágenes y proceso del lenguaje y entender el funcionamiento de los distintos modelos de redes neuronales.

– Conocer los entornos de Big Data para data science, para construir modelos escalables y desplegar y lanzar las soluciones en la nube.

– Utilizar las claves y fundamentos de la visualización para crear historias con los datos.

– Conocer el nuevo entorno laboral VUCA (Volatility, Uncertainty, Complexity & Ambiguity), que requiere del dominio de herramientas de trabajo en red, colaborativas, ágiles; así como de las habilidades y competencias que se exigen para ser competitivo en el nuevo entorno digital.

Índice

MÓDULO 1. INTRODUCCIÓN: LA IMPORTANCIA DEL DATO

1. Concienciación en relación a cómo la ciencia del dato afecta a todos los sectores y puede ser el aliado perfecto para el mundo de los negocios.

2. Conocimiento de los diferentes modelos de negocio basado en datos:

  2.1. Nuevos modelos de negocio en torno al dato

  2.2. Tipología de datos y cómo se obtienen

  2.3. Maneras de rentabilizar el dato

  2.4. Data Business Model Canvas

3. Adquisición de conocimientos sobre los avances en Big Data & Inteligencia Artificial (IA)

  3.1. Estado actual

  3.2. Posible evolución futura

4.  Dominio de Conceptos básicos

  4.1. Qué es Big Data

  4.2. Qué es Machine Learning

  4.3. Qué es Deep Learning

5. Concienciación sobre el poder de los datos en las organizaciones tanto para mejorar la toma de decisiones como para crear modelos de negocio basado en datos

6. Visión trasversal sobre cómo Data Science se aplica en las diferentes áreas de la organización para impulsar las capacidades

MÓDULO 2. NOCIONES INICIALES DE PYTHON, DATA ENGINEERING Y ESTADÍSTICA

1. Desarrollo de los fundamentos de Big Data

  1.1. Qué es el Big Data

  1.2. Perfiles técnicos: Data Analyst, Engineer, Arquitect, QA…

  1.3. El proceso de construir un proyecto de Big Data

  1.4. Arquitecturas de Big Data

  1.5. Las claves del éxito del big data

2. Identificación de los fundamentos de Machine Learning

  2.1. Introducción al Machine Learning: Datos, algoritmos, modelos, producción…

  2.2. Aproximación a los algoritmos: clasificación, predicción y clustering

  2.3. Creación de modelos de Machine Learning

  2.4. Las claves del aprendizaje automático.

  2.5. La productivización de modelos

3. Análisis de los fundamentos de IA: Visión, NPL…

  3.1. Introducción al Deep Learning y sus aplicaciones

  3.2. Tipos de redes neuronales y su entrenamiento

  3.3. Funcionamiento y retos del Data Science aplicado al Computer Vision y al NPL

4. Conocimientos avanzados de Python Crash Course

  4.1. Uso de pycharm como entorno de trabajo

  4.2. Uso de notebooks

  4.3. Conocimiento de la sintaxis del lenguaje: bucles, variables.

  4.4. Librerías

  4.5. Funciones

  4.6. Programación orientada a objetos en Python

5. Aproximación a la arquitectura de la información y al SQL

  5.1. Qué es la arquitectura de datos

  5.2. Modelo relacional tradicional

  5.3. Modelo estrella

  5.4. Modelo copo de nieve

  5.5. Bases de la normalización de datos

  5.6. Definiciones esenciales: base de datos, tablespace, tabla, vista, vista materializada, clave primaria, índice y partición

    5.6.1. SQL

    5.6.2. Sintaxis del lenguaje

6. Identificación del Crash course de python para data engineers: SQL y dataframes

  6.1. Consulta de datos

  6.2. Cruce de tablas

  6.3. Inserción y borrado

  6.4. Dataframes

    6.4.1. Qué es una serie

    6.4.2. Qué es un dataframe

    6.4.3. Cruces con dataframe

    6.4.4. Funciones lambda con columnas

    6.4.5. Leer y salvar datos desde y a dataframe desde distintos formatos

7. Diferenciación entre ETL/ELT y preproceso de datos

  7.1. ELT o ETL

  7.2. Pipelines de datos

  7.3. ¿Cómo estructurar los distintos pasos del workflow de datos?

  7.4. Automatización de procesos.

8. Aplicación del proceso del análisis exploratorio

  8.1. Arranque de un proceso exploratorio

  8.2. Los objetivos de un análisis exploratorio

  8.3. Uso del proceso exploratorio para validación de hipótesis

  8.4. Naturaleza iterativa del proceso

9. Utilización de herramientas de visualización exploratoria y librerías

  9.1. Análisis descriptivo gráfico

  9.2. Análisis descriptivo basado en estadísticos

10. Realización de análisis univariante y multivariante

  10.1. Análisis multivariante

  10.2. Análisis univariante

11. Conocimiento de la Estadística descriptiva

  11.1. Media, mediana, momentos, etc.

  11.2. Desviación, varianza

  11.3. Sesgos y medidas de homogeneidad de la información

12. Aproximación breve al algebra lineal

  12.1. Operaciones matriz-escalar

  12.2. Operaciones matriz-matriz

  12.3. Propiedades de las matrices: no conmutativa, asociativa, distributiva, matriz identidad

  12.4. Trasposición e inversa de una matriz

13. Análisis de correlación de variables: fundamentos de estadística y probabilidad

  13.1. Ingeniería de características: descarte y selección de características

  13.2. Cómo analizar la correlación entre variables

  13.3. Efecto de las correlaciones

  13.4. Eliminación de la correlación

14. Deducción estadística y contraste de hipótesis

  14.1. Definición de una distribución una variable aleatoria

  14.2. Definición de una función de probabilidad

MÓDULO 3. CONOCIMIENTO AVANZADO DE MACHINE LEARNING & ARTIFICIAL INTELLIGENCE

1. Aproximación a la modelización

1.1. Introducción a la modelización

1.2. Tipos de modelos

2. Identificación de los Modelos de regresión

2.1. Modelos de regresión simple

2.2. Modelos de regresión múltiple

2.3. Modelos de regresión generalizado

3. Clasificación de los distintos modelos de Árboles

3.1. Modelos de inferencia de árboles de decisión y regresión

3.1.1. Clasificadores binarios

3.1.2. Regresión

3.2. Modelos de inferencia de árboles de decisión: clasificadores multiclase

3.3. Modelos avanzados de árboles

3.3.1. Boosting

3.3.2. Random forest

4. Conocimientos de Algoritmos alternativos de clasificación

5. Conocimientos de Eager y Lazy classifiers

6. Utilización de Clustering

6.1. Introducción a los modelos no supervisados

6.2. Análisis clúster

7. Aproximación al método científico

7.1. Evaluación de modelos

8. Evaluación y optimización de modelos

8.1. Control de outliers y análisis de residuos

8.2. Modelos no supervisados

8.3. Modelos supervisados

9. Creación de Ingeniería de variables

9.1. Principios de la ingeniería de variables en la creación de variables

9.2. La dimensionalidad

9.3. Técnicas: PCA y SVD

10. Ensamblado de modelos

10.1. Definición de model ensembles

10.2. Modelos débiles y modelos fuertes

10.3. Creación de pipelines para crear modelos ensamblados

11. Gestión del ciclo de vida de los modelos

12. Interpretabilidad

13. Aproximación a modelos heurísticos de optimización

14. Conocimiento de los algoritmos genéticos

14.1. Principios de optimización basado en heurísticos

14.2. Gradiente descendente

14.3. Modelos basados en comportamientos animales

14.4. El algoritmo genético

14.5. Aplicaciones de los algoritmos genéticos

14.6. Cromosoma y función de fitness

14.7. Resolución de un problema usando algoritmos genéticos

15. Utilización de series temporales y forecasting

15.1. Bases sobre componentes de las series temporales: tendencia, ciclo y estacionalidad

15.2. Series estacionarias y no estacionarias

15.3. Análisis de anomalías

15.4. Suavizado exponencial

15.5. Modelos autoregresivos

15.6. Modelos univariantes y multivariantes

15.7. Modelos arima

15.8. Modelos con parametrización automática

16. Gestión de proyectos de Data Science

MÓDULO 4. APLICACIONES DEL DEEP LEARNING

1. Aproximación a redes neuronales artificiales (ANN)

1.1. ¿Qué es una red neuronal artificial?

1.2. Tipos de redes: profundas y superficiales (shallow)

1.3. Técnica del gradiente descendiente

2. Conocimiento de los campos de aplicación de ANN

2.1. Visión por computador

2.2. Análisis y síntesis del lenguaje

2.3. Análisis de secuencias

2.4. GAN y deepfake

3. Aproximación al Shallow & Deep neural networks. Introducción CNN

3.1. Perceptrón simple

3.2.Topologías de redes neuronales

3.3. MNIST

3.4. Regularización: L1, L2, dropout y otros

3.5. Creación de una CNN con keras

4. Comprensión del diseño de redes neuronales artificiales (ANN), redes convolucionales (CNN) y redes recurrentes (RNN)

MÓDULO 5. ENTORNOS BIG DATA & CLOUD

1. Conocimientos de Big Data y de los principios de arquitecturas de computación distribuidas y altamente escalables

1.1. Comprender el papel del Big data en la ciencia de datos

1.2. Apache Spark

1.3. Spark en modo batch y en semi-tiempo real (microbatches)

1.4. Lazy evaluation

2. Utilización de Dataframes y Data pipelines en Spark

2.1. Operaciones sobre dataframes (SQL o pyspark)

2.2. Creación de data pipelines con spark

2.3. Transformación de dataframes

3. Creación de modelos de Machine Learning en Spark

3.1. Entrenamiento de modelos e integración en pipelines

3.2. Aplicación de la inferencia de modelos en Spark

4. Despliegue de pipelines de modelos con Spark

5. Desarrollo de modelos con proveedores de Cloud Machine Learning

MÓDULO 6. VISUALIZACIÓN DE LOS DATOS

1. Comprensión de las claves del storytelling a través de los datos

1.1. La ciencia de la visualización de datos y el storytelling: su valor en el mundo profesional

2. Uso del storytelling con datos

2.1. Principios de la comunicación visual de los datos

2.2. Uso de los distintos controles visuales

3. Comprensión de los conceptos Business Intelligence y Data Visualization

3.1. Entender el proceso para trabajar en la herramienta de visualización en un contexto de Business Intelligence

3.2. Fuentes de datos, tratamiento y preparación de datos, modelaje de datos (relaciones), análisis exploratorio y específicos, visualización y reporting

4. Profundización en la herramienta PowerBI para poder conectar datos, prepararlos, modelarlos, explorarlos y visualizarlos

4.1. Entorno de PowerBI: organización y componentes

4.2. Importación de datos

4.3. Visualizaciones básicas realizando agrupaciones y aplicando filtros

4.4. Trabajar y preparar los datos: columnas calculadas, medidas, fórmulas con DAX, tablas calculadas…

4.5. Trabajar con tablas matrices para aumentar la granularidad de los informes

4.6. Filtrar los datos de manera dinámica con la segmentación de datos

5. Aproximación a la herramienta Tableau

MÓDULO 7. HABILIDADES Y COMPETENCIAS DE GESTIÓN, PERSONALES Y SOCIALES, PARA EL ENTORNO DIGITAL

1. Impulso de habilidades digitales

1.1. Liderazgo participativo

1.2. Gestión del cambio

1.3. Inteligencia emocional

1.4. Storytelling

1.5. Creación de marca personal

1.6. Comunicación y negociación en entornos digitales

2. Comprensión de las competencias necesarias para el nuevo entorno digital

2.1. La influencia digital

2.2. La colaboración en el entorno

2.3. La integración de la diversidad

2.4. La gestión emocional

2.5. La agilidad en toma de decisiones

2.6. La anticipación en contextos digitales

2.7. La flexibilidad para la transformación

2.8. La asunción de incertidumbre y riesgos

2.9. La elaboración, gestión y difusión de contenidos

3. Conocimiento de las herramientas imprescindibles para

3.1. El trabajo colaborativo

3.2. El trabajo en remoto

3.3. La gestión de proyectos

3.4. Automatización de flujos de trabajo

4. Práctica en las claves del trabajo en equipo y de la productividad en remoto

5. Fomento del liderazgo participativo y la gestión del cambio

6. Dominio de la comunicación y la negociación en entornos digitales

7. Práctica del modelo de competencias para el entorno digital

8. Elaboración y gestión de la marca personal desde la importancia del storytelling

Contenido SCORM para el Curso IFCT107 Responsable experto de data

Imparte a tus alumnos conocimientos clave para convertirse en expertos en el dominio de datos con inteligencia artificial. El curso IFCT107 Responsable experto de data proporciona una amplia formación en Data Science, Machine Learning, Deep Learning y Big Data, permitiendo a las empresas formar a profesionales capaces de optimizar procesos, tomar decisiones basadas en datos y crear modelos de negocio innovadores.

Contenidos Clave

  • Domina el análisis y transformación de datos para optimizar procesos con inteligencia artificial.
  • Explora el uso de Python y la estadística en Data Science para crear modelos eficaces.
  • Profundiza en aplicaciones de Deep Learning para reconocimiento de imágenes y procesamiento de lenguaje.
  • Aprende conceptos esenciales de Big Data y despliega soluciones en la nube.
  • Utiliza herramientas de visualización para crear narrativas impactantes con los datos.
Número de horas 240
Formato Curso
IFCT107 Responsable experto de dataIFCT107 Responsable experto de data
Scroll al inicio