Diminuir o Passo PIORA a Derivada?! (o bug do Cálculo Numérico)
Автор: Erro de Overflow
Загружено: 2026-01-07
Просмотров: 16
Você já ouviu “quanto menor o h, melhor a derivada numérica”? Neste vídeo eu provo que isso NÃO é verdade.
Usando f(x)=sin(x) e calculando a derivada em x=1 (valor exato: cos(1)), eu varro vários valores de h e mostro o erro no gráfico: ele cai, atinge um mínimo e depois sobe — a famosa curva em “U”. Isso acontece porque dois erros competem:
1) Erro de truncamento (diminui quando h diminui)
2) Erro de arredondamento (aumenta quando h fica pequeno demais por causa do ponto flutuante)
Depois eu comparo quatro abordagens para aproximar a derivada:
Diferença para frente (forward)
Diferença central
Extrapolação de Richardson
Complex-step
Resultados (neste experimento):
Forward: h ótimo ~ 1e-8 com erro ~ 1e-9
Central: h ótimo ~ 1e-5 com erro ~ 1e-12
Richardson: h ótimo ~ 1e-3 com erro ~ 1e-15
Complex-step: h ~ 1e-8 com erro encostando no limite do float (~ 1e-16)
Moral: diminuir h não é sempre o melhor. O método certo permite usar h maior e ainda assim obter erro menor — mas o h ótimo depende da função e do ponto analisado (aqui foi sin(x) em x=1).
Código e visuais gerados em Python (Matplotlib + FFmpeg/NVENC).
Se isso te ajudou, deixa um like e se inscreve — e comenta qual tema você quer no próximo: interpolação de Runge, integração numérica, estabilidade em EDO, métodos iterativos, etc.
#caculonumerico #metodosnumericos #python #matematica #engenharia
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: