Iniciante ~120 min 6 itens

MLP e Matrizes

AÇÕES
Progresso do Topico 0%

Este topico aparece nas seguintes trilhas:

Pre-requisitos recomendados:

Forward Pass e Matrizes

Teoria: Multiplicação de matrizes, broadcasting, transpostas, funções de ativação

Prática: Empilhar neurônios em camadas - primeira MLP com forward pass

Um neurônio é um dot product. Uma camada é uma multiplicação de matrizes. Você sente na implementação por que matrizes existem.


Vídeos Fundamentais#


Leituras e Tutoriais#


Ferramentas Interativas#


Insight Chave#

Por que funções de ativação são essenciais: Se você empilhar camadas lineares sem ativação, o resultado é... outra transformação linear. Matematicamente, W2(W1·x) = W3·x - não importa quantas camadas, a rede só consegue aprender funções lineares. A ativação (sigmoid, ReLU, etc.) quebra essa linearidade e permite que a rede aprenda fronteiras curvas e padrões complexos.

  • Sigmoid: 1/(1+e^-x) - você já usou no neurônio. Esmaga em [0,1], mas sofre de gradientes que somem nas extremidades.
  • ReLU: max(0, x) - simples e eficiente, domina redes modernas. Gradiente é 0 ou 1, sem saturação.
  • GELU: Versão suave do ReLU usada em GPTs (você vai reencontrar em seu-gpt).

Entregável#

MLP com arquitetura [3, 4, 2] (3 inputs, camada oculta de 4 neurônios com ReLU, saída de 2 com sigmoid) em NumPy.

Verificação de shapes: Imprima o shape de cada ativação intermediária. Se input é (5, 3), após W1 (3, 4) você deve ter (5, 4).

Sem treinar ainda — só o fluxo pra frente.

Você deve conseguir explicar: Por que sem função de ativação, empilhar camadas não ajuda.


Checklist#


Conexões#

Fundamento: Este tópico usa conceitos de neuronio-e-vetores

Próximo passo: Entenda como medir o erro em loss-e-derivadas

8 recursos

Topicos Relacionados