Programa do Curso

DIA 1 - REDES NEURONAIS ARTIFICIAIS

Introdução e estrutura das RNA.

  • [Neurónios lógicos e neurónios artificiais.
  • Modelo de uma RNA.
  • Funções de ativação utilizadas em RNAs.
  • Classes típicas de arquitecturas de redes.

[Fundamentos e mecanismos de aprendizagem.

  • Revisitar a álgebra vetorial e matricial.
  • Conceitos de espaço de estados.
  • Conceitos de otimização.
  • Aprendizagem por correção de erros.
  • Aprendizagem baseada na memória.
  • Aprendizagem Hebbiana.
  • Aprendizagem competitiva.

Perceptrões de camada única.

  • Estrutura e aprendizagem dos perceptrões.
  • Classificador de padrões - introdução e classificadores de Bayes.
  • O perceptrão como classificador de padrões.
  • Convergência do perceptron.
  • Limitações de um perceptron.

RNA de alimentação.

  • Estruturas das redes feedforward multicamadas.
  • Algoritmo de retropropagação.
  • Propagação inversa - formação e convergência.
  • Aproximação funcional com propagação inversa.
  • Questões práticas e de conceção da aprendizagem por retropropagação.

Redes de funções de base radial.

  • Separabilidade de padrões e interpolação.
  • Teoria da regularização.
  • Regularização e redes RBF.
  • Projeto e treino de redes RBF.
  • Propriedades de aproximação da RBF.

Aprendizagem competitiva e ANN auto-organizáveis.

  • Procedimentos gerais de agrupamento.
  • Quantização de vectores de aprendizagem (LVQ).
  • Algoritmos e arquitecturas de aprendizagem competitiva.
  • Mapas de características auto-organizáveis.
  • Propriedades dos mapas de características.

Fuzzy Neural Networks.

  • Sistemas neuro-fuzzy.
  • Contexto dos conjuntos e da lógica difusa.
  • Conceção de hastes difusas.
  • Conceção de RNAs fuzzy.

Aplicações

  • Serão discutidos alguns exemplos de aplicações de redes neuronais, as suas vantagens e problemas.

DIA -2 APRENDIZAGEM DE MÁQUINAS

  • O quadro de aprendizagem PAC
    • Garantias para um conjunto de hipóteses finito - caso consistente
    • Garantias para um conjunto de hipóteses finito - caso inconsistente
    • Generalidades
      • Cenários determinísticos Cenários estocásticos
      • Ruído do erro de Bayes
      • Erros de estimativa e de aproximação
      • Seleção de modelos
  • Radmeacher Complexidade e VC - Dimensão
  • Desvio - Desvio de variância
  • Regularização
  • Sobreajuste
  • Validação
  • Máquinas de vectores de suporte
  • Kriging (regressão por processo gaussiano)
  • PCA e Kernel PCA
  • Mapas de auto-organização (SOM)
  • Espaço vetorial induzido por Kernel
    • Kernels de Mercer e métricas de similaridade induzidas por Kernel
  • Reinforcement Learning

DIA 3 - APRENDIZAGEM PROFUNDA

Este dia será leccionado em relação aos tópicos abordados no Dia 1 e no Dia 2

  • Regressão Logística e Softmax
  • Autoencodificadores esparsos
  • Vectorização, PCA e Whitening
  • Aprendizagem autodidata
  • Redes profundas
  • Descodificadores lineares
  • Convolução e Pooling
  • Codificação esparsa
  • Análise de componentes independentes
  • Análise de correlação canónica
  • Demonstrações e aplicações

Requisitos

Compreensão Good de matemática.

[Conhecimentos básicos de estatística.

Não são necessárias competências básicas de programação, mas são recomendadas.

 21 Horas

Número de participantes


Preço por Participante

Declaração de Clientes (2)

Próximas Formações Provisórias

Categorias Relacionadas