Plan de estudios

El plan de estudios está constituido por 10 materias y un seminario que deben cursarse en dos semestres; durante el periodo de verano se deberá realizar una estancia que puede ser industrial o académica.

El grado se otorga al término satisfactorio de los cursos y la estancia, mediante la elaboración del reporte escrito sobre el trabajo realizado durante la estancia de verano y una defensa oral del mismo.

El diseño del posgrado considera un número pequeño pero muy representativo de áreas en las que hay un enorme interés científico y tecnológico.
La elección y definición de las Líneas de Generación y/o Aplicación del Conocimiento (LGACs) también tiene repercusiones importantes en los estudiantes que piensan realizar estudios de Doctorado en el extranjero.
Es crucial que un estudiante de doctorado tenga un campo fértil para hacer investigación en áreas en las que existen suficientes oportunidades para hacer contribuciones científicas y tecnológicas relevantes.

Líneas de Generación y/o Aplicación del Conocimiento

Minería de Datos
El área tiene dos componentes fundamentales. En primer lugar está la identificación de patrones de comportamiento mediante diferentes técnicas escalables que puedan resolver efectiva y eficientemente problemas de en el orden de los terabytes. Las más sólidas y reconocidas tienen componentes matemáticas sofisticadas como la descomposición en valores singulares asistida por métodos que reducen efectivamente el problema de la dimensionalidad, v.gr. productos de Kronecker
Por otra parte, están los métodos estadísticos basados en muestreo.
Aprendizaje de Máquina
El área comprende la elaboración de modelos estadísticos y matemáticos capaces de predecir valores en casos desconocidos, a partir de una muestra de entrenamiento. Entre las técnicas más utilizadas están las máquinas de soporte vectorial, las redes neuronales y la regresión logística. Sin embargo una dificultad fundamental es la escalabilidad de los métodos para abordar eficientemente problemas volúmenes muy grandes de datos. Mientras algunos algoritmos están diseñados para funcionar en línea, otros los hacen en modo batch, utilizando muestras de los datos originales.
Algoritmos Numéricos y Computacionales.
En general, los problemas relacionados con la construcción de modelos matemáticos y estadísticos a partir de grandes volúmenes de datos comprenden dos fases básicas: a) Minería; b) construir un modelo predictivo.
Los modelos requieren de calcular un conjunto de parámetros empíricos que minimizan alguna medida estadística, v.gr.
devianza, verosimilitud. El cálculo requiere de técnicas numéricas sofisticadas y computacionalmente eficientes. La mayoría de los probemas derivados de obtener los parámetros se formulan como problemas de optimización regularizada en la norma $\ell_1$. El efecto de usar la norma $\ell_1$ como regularizador tiene un efecto directo en la selección de variables.
Modelos Estadísticos y Computacionales.
Construir modelos estadísticos predictivos en el terreno de los grandes volúmenes de datos impone muchos retos desde un punto de vista de rigor estadístico. Es crucial poder diseñar medidas prácticas, computacionalmente viables y numéricamente confiables, que garanticen la validez del modelo y la calidad de las predicciones.