Fundamentos Matemáticos Intermediario ~120 min

Loss e Derivadas

Topico 3 de 9
fundamentos matemática cálculo
AÇÕES
Progresso do Topico 0%

Loss, Derivadas e o Por Que do Treinamento

Teoria: Derivadas (revisão), conceito de loss function, gradiente como direção

Prática: Implementar MSE e cross-entropy, calcular loss do MLP

"O modelo chutou X, a resposta era Y, quão errado ele está?" Derivadas entram porque você precisa saber em que direção ajustar para errar menos.


Vídeos Fundamentais#


Leituras e Tutoriais#


Ferramentas Interativas#


Insight Chave#

MSE para regressão, Cross-Entropy para classificação.

O termo sigma'(z) nos gradientes do MSE causa aprendizado lento quando neurônios saturam. A curva de custo mais ingreme da cross-entropy previne que o modelo fique preso quando predições estão muito erradas.


Entregável#

Seu MLP do bloco anterior agora tem dados COM labels (crie pontos 2D sintéticos com classes 0/1) e calcula o loss.

Implemente MSE e Cross-Entropy. Compare os valores para o mesmo input.

Gradient check: Perturbe um peso em +0.001, recalcule o loss, e compare (loss_novo - loss_original) / 0.001 com a derivada analítica. A diferença deve ser < 1e-5.

Você deve conseguir explicar: "Se eu mexer nesse peso um pouquinho pra cima, o loss sobe ou desce?" — e verificar numericamente.


Checklist#


Conexões#

Fundamento: Este tópico usa conceitos de mlp-e-matrizes

Próximo passo: Aprenda a propagar gradientes em backpropagation

8 recursos

Este topico tambem pode ser acessado em /topicos/loss-e-derivadas