Sumários

Redes neuronais convolucionais

11 Abril 2024, 18:00 Tomás Brandão


  • Introdução às redes neuronais convolucionais (CNN)
  • Arquitetura de uma CNN
    • Camadas convolucionais e filtros
    • Camadas de subamostragem (pooling)
    • Ativação ReLU
    • Camadas totalmente ligadas (fully connected)
  • Construção e treino de uma CNN no TensorFlow
  • Overfitting e formas de o reduzir
    • Data augmentation
    • Dropout
  • Visualização de resultados

Redes neuronais clássicas (revisão)

15 Março 2024, 19:30 Tomás Brandão


  • Exercícios sobre redes neuronais clássicas

Redes neuronais clássicas (revisão)

15 Março 2024, 18:00 Tomás Brandão


  • Conceito de aprendizagem supervisionada
  • Noção de características (features) e classes
  • Arquitetura clássica de uma rede neuronal (ANN): unidades elementares (neurónios); camada de entrada, camada(s) escondida(s) e camada de saída
  • Conjuntos de treino, validação e teste
  • Processo de treino - noção de "batch" e época
  • Funções de otimização: algoritmo "gradient descent"
  • Funções de perda: MSE; entropia cruzada
  • Avaliação de resultados: taxa de acertos e perda; falsos positivos e falsos negativos; precisão (precision) e sensibilidade (recall); matriz de confusão

Redes neuronais clássicas (revisão)

14 Março 2024, 19:30 Tomás Brandão


  • Exercícios sobre redes neuronais clássicas

Redes neuronais clássicas (revisão)

14 Março 2024, 18:00 Tomás Brandão


  • Conceito de aprendizagem supervisionada
  • Noção de características (features) e classes
  • Arquitetura clássica de uma rede neuronal (ANN): unidades elementares (neurónios); camada de entrada, camada(s) escondida(s) e camada de saída
  • Conjuntos de treino, validação e teste
  • Processo de treino - noção de "batch" e época
  • Funções de otimização: algoritmo "gradient descent"
  • Funções de perda: MSE; entropia cruzada
  • Avaliação de resultados: taxa de acertos e perda; falsos positivos e falsos negativos; precisão (precision) e sensibilidade (recall); matriz de confusão