Profesor(es)
Rodrigo Echeveste
Turno
Turno Tarde (13:30 a 16:30)
Cupo
110
Idioma
Español
Descripción

Las redes neuronales sintéticas y los métodos de machine learning (ML) son una valiosa herramienta para mejorar el entendimiento sobre el funcionamiento del cerebro. En efecto, las redes profundas son hoy en día las mejores predictoras de respuestas medias de neuronas corticales a partir de los estímulos presentados, en distintas modalidades y tareas. Este curso se enfoca en la relación de mutuo beneficio entre neurociencia e inteligencia artificial.

Programa del curso

– Elementos de neurociencia: el cerebro y qué podemos medir.
– Elementos de redes sintéticas: arquitecturas feed-forward y arquitecturas recurrentes.
– Principio de Optimalidad y nociones básicas de entrenamiento: diferenciación automática y retropropagación.
– Redes sintéticas entrenadas funcionalmente para entender redes biológicas.
– Predicción de nuevas propiedades biológicas a partir de los modelos aprendidos, y modelos como banco de pruebas de hipótesis.

Requisitos del curso

Nociones básicas de análisis matemático y probabilidad y estadística.
Recomendado: nociones básicas de aprendizaje automático y PyTorch.
*No se requieren conocimientos previos de neurociencias*.

Bibliografía

– Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
– Dayan, P., Abbott, L. F., & Abbott, L. (2001). Theoretical neuroscience: computational and mathematical modeling of neural systems.
– Yamins, D. L., & DiCarlo, J. J. (2016). Using goal-driven deep learning models to understand sensory cortex. Nature neuroscience, 19(3), 356.
– Kriegeskorte, N. (2015). Deep neural networks: a new framework for modeling biological vision and brain information processing. Annual review of vision science, 1, 417-446.
– Yamins, D. L., Hong, H., Cadieu, C. F., Solomon, E. A., Seibert, D., & DiCarlo, J. J. (2014). Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proceedings of the National Academy of Sciences, 111(23), 8619-8624.
– Güçlü, U., & van Gerven, M. A. (2015). Deep neural networks reveal a gradient in the complexity of neural representations across the ventral stream. Journal of Neuroscience, 35(27), 10005-10014.
– Khaligh-Razavi, S. M., & Kriegeskorte, N. (2014). Deep supervised, but not unsupervised, models may explain IT cortical representation. PLoS computational biology, 10(11),
e1003915.
– Cadena, S. A., Denfield, G. H., Walker, E. Y., Gatys, L. A., Tolias, A. S., Bethge, M., & Ecker, A. S. (2019). Deep convolutional models improve predictions of macaque V1
responses to natural images. PLoS computational biology, 15(4), e1006897.
– Higgins, I., Chang, L., Langston, V., Hassabis, D., Summerfield, C., Tsao, D., & Botvinick, M. (2021). Unsupervised deep learning identifies semantic disentanglement in single inferotemporal face patch neurons. Nature communications, 12(1), 6456.
– Echeveste, R., Aitchison, L., Hennequin, G., & Lengyel, M. (2020). Cortical-like dynamics in recurrent circuits optimized for sampling-based probabilistic inference. Nature neuroscience, 23(9), 1138-1149.
– Echeveste, R., Ferrante, E., Milone, D. H., & Samengo, I. (2022). Bridging physiological and perceptual views of autism by means of sampling-based Bayesian inference. Network Neuroscience, 6(1), 196-212.
– Zhuang, C., Yan, S., Nayebi, A., Schrimpf, M., Frank, M. C., DiCarlo, J. J., & Yamins, D. L. (2021). Unsupervised neural network models of the ventral visual stream. Proceedings of the National Academy of Sciences, 118(3), e2014196118.
– Bashivan, P., Kar, K., & DiCarlo, J. J. (2019). Neural population control via deep image synthesis. Science, 364(6439), eaav9436.
– Kell, A. J., Yamins, D. L., Shook, E. N., Norman-Haignere, S. V., & McDermott, J. H. (2018). A task-optimized neural network replicates human auditory behavior, predicts brain responses, and reveals a cortical processing hierarchy. Neuron, 98(3), 630-644.
– Ponce, C. R., Xiao, W., Schade, P., Hartmann, T. S., Kreiman, G., & Livingstone, M. S. (2019). Evolving super stimuli for real neurons using deep generative networks. Biorxiv, 516484. Orhan, A. E., & Ma, W. J. (2019). A diverse range of factors affect the nature of neural representations underlying short-term memory. Nature neuroscience, 22(2), 275-283.
– Neftci, E. O., Mostafa, H., & Zenke, F. (2019). Surrogate gradient learning in spiking neural networks: Bringing the power of gradient-based optimization to spiking neural networks. IEEE Signal Processing Magazine, 36(6), 51-63.