Acerca de Maestría en Computación Paralela y Distribuida
Hoy en día, la mayoría de softwares y sistemas electrónicos usan de una forma u otra la Computación Paralela o Distribuida. Los smartphones, por ejemplo, han integrado procesadores multinúcleo más potentes a lo largo de los años, mientras que ya es usual que los ordenadores modernos incorporen procesadores multinúcleos. Por otro lado, la Computación Distribuida ha impulsado otras ramas de investigación como el big data, siendo imprescindible en ámbitos como las redes sociales, corporativas o los juegos en línea multijugador. Todo ello refleja la importancia de estas dos formas de programar, por lo que TECH ha creado este completo programa universitario en el que el informático se adentrará en las ventajas y principales usos de la Computación Paralela y Distribuida.
Objetivos generales
- Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
- Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados
- Analizar en profundidad la Computación Paralela Multiplataforma para utilizar paralelismo a nivel de tarea entre distintos aceleradores hardware
- Analizar en detalle el software y arquitecturas actuales
- Desarrollar en profundidad los aspectos relevantes de la Computación Paralela y Distribuida
- Especializar al alumno en el uso de la Computación Paralela y Distribuida en diferentes sectores de aplicación
Competencias generales
- Desarrollar conocimiento especializado sobre los diferentes niveles de Paralelismo
- Analizar una estrategia de Paralelización basándose en las Métricas de Rendimiento
- Determinar las características principales de la computación paralela y distribuida antes de abordar la comunicación y coordinación que ocurre entre sus componentes
- Demostrar que en este tipo de sistemas pueden suceder comunicaciones entre procesos, llamadas remotas o comunicaciones indirectas
- Determinar los aspectos que penalizan al desempeño de aplicaciones paralelas
- Analizar técnicas avanzadas de optimización de código en paralelo, de optimización de comunicaciones en sistemas de memoria distribuida, control de afinidad, balanceo de carga y gestión de entrada/salida paralela
- Examinar modelos de Programación Híbrida para sistemas con varios aceleradores hardware y modelos de programación híbrida para sistemas con memoria compartida/distribuida