Profesor(es)
Pablo Musé
Turno
Turno Mañana (09:00 a 12:00)
Cupo
Sin definir
Idioma
Español
Descripción

Este curso explora las técnicas y modelos más avanzados de inteligencia artificial utilizados para generar muestras realistas a partir de un conjunto de datos. Estos modelos aprenden la distribución subyacente de los datos, de forma explícita o implícita, y generan nuevas muestras de acuerdo a esta distribución. La parametrización de los modelos generativos mediante redes neuronales profundas ha permitido aprender estas distribuciones para datos en espacio de muy alta dimensión, dando lugar a métodos capaces de sintetizar muestras realistas de datos complejos como imágenes, audio y texto. Hoy en día, modelos generativos como los modelos de difusión, han transformado la creación visual al permitir que las máquinas generen imágenes, desde arte hasta retratos foto-realistas, sin intervención humana directa. Estos avances están redefiniendo industrias como el diseño gráfico, la moda, los videojuegos, la medicina, y la publicidad.
En este curso estudiaremos los fundamentos de los modelos generativos profundos y su entrenamiento mediante técnicas de optimización estocástica. Trabajaremos sobre los modelos autorregresivos, los auto-encoders variacionales, los normalizing flows, los modelos de difusión y las redes generativas antagónicas. Presentaremos también algunas aplicaciones a problemas de visión por computadora y restauración de imágenes.

Programa del curso

Repaso de aprendizaje profundo: redes convolucionales, redes recurrentes.
Modelos generativos autorregresivos: Pixel-RNN, Pixel-CNN, WaveNet.
Auto-encoders y auto-encoders variacionales.
Normalizing flows: RealNVP, Glow.
Modelos de difusión: DDPM, DDIM.
Restauración de imágenes con modelos de difusión: Classifier guidance, DDRM, DPS, PiGDM.

Requisitos del curso

Cálculo diferencial e integral, álgebra lineal, probabilidad y estadística (nivel de grado para carreras de ingeniería, computación o licenciatura en matemática).
Curso introductorio de aprendizaje automático y/o aprendizaje profundo.
Programación en Python.

Bibliografía

Bishop, C. M., & Bishop, H. (2023). Deep learning: Foundations and concepts. Springer Nature.
Murphy, K. P. (2023). Probabilistic machine learning: Advanced topics. MIT press.
Tomczak, J. M. (2024). Deep Generative Modeling. Springer Cham.
Dhariwal, P., & Nichol, A. (2021). Diffusion models beat gans on image synthesis. Advances in neural information processing systems, 34, 8780-8794.
Kawar, B., Elad, M., Ermon, S., & Song, J. (2022). Denoising diffusion restoration models. Advances in Neural Information Processing Systems, 35, 23593-23606.
Chung, H., Kim, J., McCann, M. T., Klasky, M. L., & Ye, J. C. (2023). Diffusion Posterior Sampling for General Noisy Inverse Problems. In The Eleventh International Conference on Learning Representations.
Song, J., Vahdat, A., Mardani, M., & Kautz, J. (2023, May). Pseudoinverse-guided diffusion models for inverse problems. In International Conference on Learning Representations.
Tailanian, M., Pardo, Á., & Musé, P. (2024). U-flow: A u-shaped normalizing flow for anomaly detection with unsupervised threshold. Journal of Mathematical Imaging and Vision, 1-19.