Permítanme compartir un enfoque que tiene sentido usar en algunos casos.
En mi caso, la señal sigue aproximadamente la ley del cuadrado inverso en magnitud, pero también se sitúa por encima y por debajo de cero, cruzando cero en varios puntos. Estoy interesado en el error relativo (es decir, lejos, donde la señal es de microvoltios, necesito precisión hasta el nanovoltio, pero cerca de la fuente, donde la señal es de unos pocos voltios, necesito precisión de milivoltios y me gustaría ignorar desviaciones en el rango de nanovoltios; por lo que usar error absoluto no tiene sentido).
Pero, si simplemente divido, ya sea por la señal real, la aproximación, o varias combinaciones de ambas, el error relativo se dispara hacia el infinito cerca de las cruces por cero.
La solución es ponderar el error absoluto por el inverso de una señal de referencia, que tiene propiedades de caída similares a las señales de interés, y es positiva en todas partes. En la fórmula para el error relativo, la propia señal real se utiliza para eso, pero no tiene por qué ser así para producir el comportamiento que esperas del error relativo.
De hecho, la señal de normalización podría estar equivocada por un factor multiplicativo (por ejemplo, si tu espacio es anisotrópico, pero sigues usando 1/r^2
como denominador), y la ratio seguiría funcionando bien como error relativo. Pensar en términos de una escala logarítmica ayuda un poco, porque el error relativo se convierte en una resta, en lugar de una división.
EDICIÓN
Para citar un artículo(1) con más de 600 citas reportadas por Google Scholar, de una autoridad en estos asuntos numéricos:
$\epsilon = (f_2 - f_1) / f_1\;\;\;$ (7)
[...]
$E_1$ puede, por supuesto, expresarse como un porcentaje, y al igual que cualquier indicador de error relativo se volverá insignificante cuando $f_1$ [...] sea cero o pequeño en relación a $(f_2 - f_1)$, en cuyo caso el denominador de la Ec. (7) debe ser reemplazado por algún valor de normalización adecuado para el problema en cuestión [...]
(Cabe destacar que $E_1$ se define como un múltiplo de $\epsilon$ en el artículo, pero estos detalles son irrelevantes en el contexto actual.)
Considero que esto es un indicador fuerte de que hasta al menos 1994, no existía un mejor análogo de error relativo para señales que cruzan cero, que la idea que se está proponiendo aquí, es decir, dividir por una señal de normalización (a la que llamo la señal de "escala" arriba).
(1) PJ Roache, "Perspective: a method for uniform reporting of grid refinement studies" - Journal of Fluids Engineering, 1994
1 votos
Necesitas un máximo para eso...
1 votos
Pregunta simple e interesante, de hecho. ¿Podrías decir en qué contexto te enfrentas a esta situación? Dependiendo de tu respuesta, hay posibles alternativas.
1 votos
@ClaudeLeibovici: Estoy trabajando en un problema de estimación de parámetros. Conozco el valor real del parámetro ($x_{true}$), y tengo datos de simulación a partir de los cuales infiero una estimación del parámetro ($x_{test}$). Quiero cuantificar el error, y parece que para mi caso particular el error relativo es más significativo que el error absoluto.
0 votos
@okj. ¿Estás minimizando la suma de los cuadrados de errores relativos o es este cálculo para un análisis a posteriori?
1 votos
¿Qué pasa si $\text{error} = 2 \frac{x_{true}-x_{test}}{x_{true}+x_{test}}$ es para un análisis a posteriori?
0 votos
@ClaudeLeibovici: Es para un análisis a posteriori. Me interesa una medida intuitiva y significativa del error. Su sugerencia es intrigante, y me gustaría investigar más al respecto. ¿Tiene alguna referencia en la que se utilice esta medida?
1 votos
@okj. Estoy familiarizado con esta situación. Ya sea usar el error relativo clásico y devolver $NaN$ si $x_{true}=0$, o adoptar esta pequeña cosa. Siempre es el mismo problema con eso. También puedes agregar una traducción a las $x$ para deshacerte de esto.
0 votos
@okj. Elaboro en una respuesta. Dame tu opinión después de leer. ¡Saludos!
0 votos
Publicado también en Stats.SE