O Instituto Internacional de Neurociências Edmond e Lily Safra (IIN-ELS) e a NVIDIA, empresa líder mundial em computação gráfica e de inteligência artificial, firmaram uma parceira para a realização de um evento especial. Um treinamento prático nas temáticas de computação de alto desempenho e inteligência artificial será desenvolvido no dia 25 de julho de 2018, voltado aos alunos do Programa de Pós-graduação em Neuroengenharia

O evento será realizado em Macaíba (RN), na sede do IIN-ELS, e contemplará dois momentos distintos:

 

Hands-On Lab: “OpenACC – 2X em 4 passos”

Horário: 9h30 – 12h

 

Os participantes aprenderão como acelerar softwares C/C ++ ou Fortran usando o OpenACC para aproveitar o máximo da arquitetura massivamente paralela das GPUs da NVIDIA. O OpenACC é uma abordagem baseada em diretivas de compilação, na qual o usuário fornece dicas ao compilador para acelerar seu código, em vez de escrever o código do acelerador sozinho.

Em 90 minutos, será mostrado um processo de quatro etapas para acelerar aplicativos usando o OpenACC:


– Caracterização e definição de perfis da aplicação;
– Onde e como adicionar diretivas de compilação;
– Adicione diretivas para otimizar a movimentação de dados;
– Otimize ainda mais seu código utilizando parametrização de kernel.

 

Palestra: “Nova plataforma NVIDIA para HPC e Inteligência Artificial” 

Horário: 14h – 15h30


Deep Learning (DL) é a técnica de Aprendizado de Máquina (ML) que vem proporcionando avanços em vários fluxos de trabalho industriais, comerciais e científicos. A nova plataforma de Inteligência Artificial da NVIDIA, composta por hardware e software, está fornecendo o poder computacional exigido pelos recentes avanços em Deep Learning.

A Volta, mais nova e avançada arquitetura de GPUs da empresa, foi especialmente projetada para as cargas de trabalho de computação de alto desempenho necessárias para treinamento e inferência de Redes Neurais Profundas com uma enorme quantidade de dados de treinamento. É a primeira arquitetura GPU que inclui Tensor Cores (TC), unidades de processamento projetadas para operações com Tensores em altíssima velocidade.

A versão mais recente da linguagem CUDA (versão 9) e os SDKs da NVIDIA foram aprimorados para incluir algoritmos especializados e altamente otimizados para extrair o potencial completo de GPUs no treinamento DNN e nas tarefas de inferência em todos os Frameworks de Deep Learning como TensorFlow, CNTK, Caffe, etc. Uma grande variedade de dados pode ser eficientemente usada para treinamento, incluindo texto, áudio, imagens e vídeo. Este novo modelo de computação está fornecendo excelentes resultados em Visão Computacional, Processamento de Linguagem Natural, Tradução de Linguagem, Reconhecimento de Fala, Sistemas de Recomendação, Logística, Carros Autônomos e Robótica.