Educación

Curso sobre aprendizaje profundo o deep learning

10/09/2021 00:00 | online

 Será dictado de manera virtual por docentes investigadores del sinc(i) los días viernes, a partir del 10 de septiembre, para estudiantes de grado y posgrado. Preinscripción abierta hasta el 31 de agosto.

 

 A partir del 10 de septiembre, los días viernes del segundo cuatrimestre será dictado de manera virtual el curso optativo «Aprendizaje Profundo» (Deep Learning), a cargo de docentes e investigadores del Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional - sinc(i), con sede en la FICH-UNL.

El curso cuenta con un programa para grado y otro para posgrado.

La preinscripción deberá realizarse hasta el 31 de agosto a través del siguiente formulario.

Por consultas, escribir a eferrante@sinc.unl.edu.ar

Objetivos
Durante las últimas décadas se ha desencadenado un proceso masivo de producción de datos: imágenes capturadas con teléfonos celulares, información de geolocalización por GPS, señales de audio, estudios médicos o perfiles de compra en línea, entre muchos otros. Interpretar dichos datos en la actualidad es posible gracias al desarrollo de métodos de aprendizaje automático (o “machine learning”, en inglés). Un tipo particular de métodos de aprendizaje automático conocido como aprendizaje profundo (o “deep learning” en inglés), ha revolucionado el mundo de las ciencias de la computación en los últimos años y desplazado las fronteras del estado del arte en problemas tan diversos como la detección de objetos en imágenes o el reconocimiento automático del habla.

El objetivo general de este curso es brindar a los/as estudiantes los conceptos teóricos fundamentales y las herramientas prácticas necesarias para construir sus propios modelos profundos para el análisis de datos. En particular, se espera que al finalizar el curso los/as alumnos/as sean capaces de:

a) comprender los conceptos básicos y algoritmos fundamentales de derivación automática que permiten implementar modelos profundos de redes neuronales,

b) diseñar sus propias arquitecturas profundas de redes neuronales en base a los modelos del estado del arte para resolver problemas en diversos campos de aplicación como el análisis de imágenes, audio y texto,

c) implementar sus propios modelos haciendo uso de frameworks de derivación automática actuales

Programa

Unidad 1: Introducción al aprendizaje profundo

Diferencias entre Inteligencia Artificial, Aprendizaje Automático y Aprendizaje Profundo. Aplicaciones del aprendizaje profundo. Buenas prácticas en aprendizaje automático. Repaso de arquitecturas básicas: perceptrón simple y perceptrón multicapa. Algoritmo de retropropagación. Optimización por gradiente descendiente.

Unidad 2: Derivación automática

Derivación automática y algoritmo de retropropagación. Grafos de cómputo estáticos y dinámicos. Introducción a PyTorch.

Unidad 3: Redes Neuronales Convolucionales

Redes neuronales inspiradas en el sistema visual. Concepto de convolución. Redes neuronales convolucionales (RNC). Operaciones de pooling. RNC para clasificación de imágenes.

Unidad 4: Métodos avanzados de entrenamiento de redes neuronales

Grafos de cómputo estáticos y dinámicos. Métodos de regularización. Dropout. Normalización de lotes. Métodos de inicialización. Variantes del gradiente descendente: adaptativo, con momento y por mini-lotes.

Unidad 5: Redes Neuronales para la segmentación de imágenes

Métodos clásicos de segmentación de imágenes. RNC para segmentación. Redes totalmente convolucionales. Métricas para evaluar la calidad de la segmentación.

Unidad 6: Redes recurrentes y procesamiento de datos secuenciales.

Redes recurrentes. Algoritmo de retropropagación en el tiempo. LSTM. GRU.

Unidad 7: Autocodificadores y modelos generativos

Técnicas clásicas de reducción de dimensionalidad. Autocodificadores por eliminación de ruido. Autocodificadores variacionales. Modelos generativos adversarios.

Unidad 8: Redes Neuronales para el procesamiento del lenguaje natural

Introducción al procesamiento del lenguaje natural. Vectorización por frecuencia. Embeddings clásicos con redes neuronales (Word2vec) y embeddings contextuales. Medidas de similaridad.

Unidad 9: Transformers y mecanismos de atención

Mecanismos de atención y módulos de autoatención. Masked language model. Clasificación, segmentación y traducción con transformers. Modelos pre-entrenados: GPT y BERT. Transformers en computer vision y otras áreas. Atención local, atención lineal y otras variantes.

Unidad 10: Redes neuronales en grafos

Introducción a las redes neuronales en grafos. Convoluciones espaciales y espectrales. Aproximaciones polinómicas. Operaciones de pooling en grafos.

Unidad 11: Tópicos selectos de aprendizaje profundo

Transferencia de aprendizaje y adaptación de dominio. Métodos básicos de interpretabilidad en redes neuronales. Equidad algorítmica y aprendizaje profundo.