miércoles
2 MarMódulo 8: Deep Learning con GPUs. Herramientas, Aceleración y Optimizaciones
Comenzamos uno de los módulos más apasionantes de nuestro Máster en Big Data, el módulo donde entramos a fondo en el Deep Learning.
El objetivo de este módulo sobre Deep Learning con GPUs, es aprender a manejar las herramientas más actuales para la implementación de proyectos de Deep Learning de la forma más rápida y eficiente sobre un computador de última generación aprovechando la aceleración en GPU y los recursos de supercomputación existentes en las arquitecturas de Nvidia, fabricante de más del 75% de las GPUs del mercado.
Para trabajar en este módulo, se pondrá a disposición del alumno de forma gratuita el curso “Fundamentals of Deep Learning for Computer Vision” perteneciente al Deep Learning Institute de Nvidia (DLI), donde podrá poner en práctica todas las técnicas descritas utilizando en la nube las GPUs más actuales.
Las tecnologías con las que trabajaremos en este nuevo módulo, son Caffe, TensorRT, DIGITS, GPUs de última generación de Nvidia, Jupyter notebooks, Amazon Web Services (AWS).
Este módulo será impartido por Manuel Ujaldón Martínez, Catedrático de Universidad, UMA.
Manuel Ujaldón es instructor internacional de cursos de formación de aceleración en GPUs de Nvidia. Nombrado en 2012 CUDA Fellow por parte de Nvidia.
En el año 2019 obtuvo la certificación DLI University Ambassador de Nvidia para impartir cursos de Deep Learning.
Deja un comentario