Máster en Inteligencia Artificial
Información del curso
Descripción
¿Qué hace único al programa?
Las clases son basadas en proyectos, con creación de piezas y aplicaciones en directo creando diferentes programas utilizando las diferentes tecnologías integrándolas en casos reales.
Cada tecnología y sus diferentes partes se aprenden en un contexto real en la creación de un proyecto. Implementando cada una de ellas y realizando demostraciones de uso.
- Garantía de Prácticas Profesionales: Al finalizar el programa, aquellos estudiantes que lo deseen tendrán la oportunidad de realizar prácticas profesionales. Grupo Atrium se compromete a encontrar una empresa adecuada donde puedan aplicar lo aprendido, facilitando así su entrada al mundo laboral.
- Soporte en Discord: Un experto estará disponible exclusivamente en Discord para resolver tus dudas. Este apoyo es extendido a la realización de ejercicios y a la clarificación de conceptos discutidos en clase.
- Enfoque 100% Práctico: Filosofía Learning by doing a lo largo del programa. Aquí, no encontrarás exámenes teóricos; tu evaluación se basará en la realización de ejercicios prácticos avanzados, diseñados para emular los desafíos que encontrarías en el ámbito laboral real.
- Desafíos Basados en Datos Reales: Se presentarán a los estudiantes desafíos estimulantes basados en situaciones reales, cuya superación es requisito para la aprobación.
Temario
1) Módulo 1: Introducción a los sistemas Informáticos y tecnologías Big Data (6 sesiones)
- Principales componentes de un sistema informático. Sistemas Operativos, para que sirven, que tipos hay y cómo funcionan…
- Introducción a GNU/Linux
- GNU/Linux Avanzado
- Como usar GNU/Linux en Cloud (AWS)
- Introducción teórica a las tecnologías Big Data: Bases de Datos SQL/No SQL, Computación distribuida, Cloud…
2) Módulo 2: Fundamentos de Programación en Python (12 sesiones)
- Introducción a los lenguajes de programación
- Python: Sentencias Básicas y Bloques Lógicos
- Python: Funciones y Scope
- Python: Clases y Objetos y Tratamiento de Excepciones
- Python: Módulos y Uso de librerías de Python
3) Módulo 3: Análisis de Datos con Python (5 sesiones)
- Python: Librerías básicas de Data Science: Pandas, Numpy, Matplotlib, Sklearn…
- Introducción teórica al análisis exploratorio de Datos
- Python: Ejemplificación del análisis exploratorio de datos mediate Datasets reales
4) Módulo 4: Introducción al Machine Learning (2 sesiones)
- Desambiguación de términos: ¿Machine Learning? ¿Deep Learning? ¿Data Science? ¿Big Data? Machine Learning: Aprendizaje supervisado (regresión/clasificación), no supervisado y por refuerzo.
- Nuestros primeros pasos con el Machine Learning: Regresión Lineal y Regresión Logística. Ejemplos con datos reales en Python.
4.1) Módulo 4.1: Introducción a la IA Generativa (3 sesiones)
- ¿Como aprovechar los recientes avances en IA generativa? Panorama actual de tecnologías más relevantes por campo:
- Texto: ChatGPT, Bard, LLaMA…
- Imagen: Dalle, Midjourney, Stable Diffusion…
- Usando la API de Open AI para crear nuestros primeros chatbots basados en ChatGPT.
5) Módulo 5: Bases de Datos Big Data (5 sesiones)
- Introducción a las Bases de datos SQL.
- Programación en Python con SQLite.
- Bases de datos NoSQL: Clave-Valor, Columnares, Documentales y de Grafos
- Bases de Datos NoSQL Documentales: MongoDB (PyMongo)
6) Módulo 6: Procesamiento Distribuido (4 sesiones)
- Funcionamiento de un sistema Big Data de Procesamiento Distribuido: Ingestión, Almacenamiento, Gestión de Recursos, Cálculo Distribuido…
- Hadoop
- Introducción a Spark: pySpark y DataFrame API
- Machine Learning con Spark ML
- PySpark Pandas
7) Módulo 7: Algoritmos de Machine Learning y su implementación (9 sesiones)
- ¿Qué es un modelo de machine learning? ¿Qué es el entrenamiento? ¿Cómo valido que mis modelos generalizan correctamente?
- Regresión Lineal
- Regresión Logística
- Algoritmos de agrupamiento (K-Means, Clustering espectral, Clustering jerárquico…)
- Support Vector Machines (SVM)
- Árboles de Decisión y Random Forests
- K Nearest Neighbors (KNN)
- Redes Bayesianas
- Modelos Ocultos de Markov
- Algoritmos de reducción de la dimensionalidad (PCA, t-SNE…)
- Algoritmos de selección de modelos y búsqueda inteligente de hiper parámetros (grid search, random search, cross validation…)
- Modelos Ensemble y Sistemas multi-agente
- Ecosistema Data Science en Python: Skit Learn, Pandas, Numpy, Matplotlib…
- Pre-procesamiento de datos numéricos (Normalización, discretización, estandarización…)
7) Módulo 7: Deep Learning (Opcional) (11 sesiones)
[Si se realiza proporciona al alumno un título extra en Deep Learning]
- Introducción a los sistemas cognitivos y al aprendizaje profundo
- Perceptrones multi capa (MLP)
- Aspectos prácticos en el entrenamiento de redes neuronales y computación en GPU/TPU
- Redes Convolucionales (CNN)
- Redes Recurrentes (RNN)
- Auto-Encoders
- Redes Generativas Adversarias (GAN)
- Deep Reinforcement Learning (DRL)
- Deep Learning Frameworks: Keras, TensorFlow, Pytorch…
8) Módulo 8: Procesamiento de Lenguaje Natural (Opcional) (5 sesiones)
- Pre-procesamiento de texto y creación de corpus (tokenización, lematización, separación de oraciones…)
- Conceptos clave de análisis a nivel de documento (TF-IDF, BoW…)
- Topic Modeling (LDA y LSI)
- Análisis morfológico y morfosintáctico (PoS Tagging)
- Named Entity Recognition
- Embeddings
- Deep Learning aplicado a NLP
- La revolución de los modelos Deep Learning de lenguaje basados en contexto (BERT, ELMo...)
- Modelos de generación de texto y agentes conversacionales
- Ecosistema NLP en Python: NLTK, gensim, spacy, rasa…
10) Módulo10: TFM (Opcional) (3 meses)
- El alumno presentará una propuesta de proyecto al docente, que utilice algoritmos y tecnologías vistos en este máster para la resolución de un problema real de negocio.
- Una vez aprobada la propuesta el alumno lo realizará
- Al entregarlo el docente dará su feedback y si este es positivo el alumno tendrá una mención especial en su diploma y prioridad en nuestra bolsa de empleo.
Herramientas y librerías que aprenderás.
- Python
- Linux
- Jupyter Lab
- Pycharm
- Spark (PySpark, Spark MLlib)
- Hadoop (HDFS, YARN)
- Mongo DB
- AWS
- NumPy
- Pandas
- Matplotlib
- Sklearn
- Keras
- TensorFlow
- NLTK
- Gensim
- TextBlob
- ChatGPT
- DALL·E 3
- OpenAI API
- Chatbots
Competencias para las que te prepara el curso
Destinatarios
- Estudiantes que posean conocimientos básicos de programación y deseen empezar su andadura profesional como científicos de datos.
- Trabajadores del sector tecnológico que quieran progresar en su carrera.
- Jefes de proyecto que deseen liderar eficientemente proyectos de Inteligencia Artificial.
Metodología
Idiomas en los que se imparte
Duración
Objetivos
- Dominar herramientas, lenguajes de programación (como Python) y técnicas algorítmicas que te permitirán desarrollar y liderar proyectos de Inteligencia Artificial. Estas herramientas están a la vanguardia de la tecnología y son líderes de mercado utilizándose diariamente en empresas nacionales e internacionales.
- Entender y saber aplicar los algoritmos de Inteligencia Artificial más utilizados en la industria, así como tener la capacidad de poder adaptarlos y modificarlos para afrontar problemas complejos del mundo real.
- Poder integrarte trabajando en proyectos empresariales que impliquen técnicas de Inteligencia Artificial, Big Data y computación en la nube.
- Conocer todas las claves para la puesta en producción soluciones de inteligencia artificial, como el manejo de sistemas GNU/Linux y la Cloud.
- Conocer funcionamiento y uso de las Bases de Datos NoSQL (como mongoDB), sistemas de procesamiento de datos a gran escala (como Hadoop y Spark).