Propagación de errores (Redirigido desde «Propagación de - TopicsExpress



          

Propagación de errores (Redirigido desde «Propagación de incertidumbre») En Estadística, la propagacion de errores (o propagación de incertidumbre) es el efecto de variables de incertidumbre (o errores) en la incertidumbre de una función matemática basada en ellos. Cuando las variables son los valores de mediciones experimentales tienen incertidumbre debido a la medición de limitaciones (por ejemplo, instrumento de precisión), que se propagan a la combinación de variables en la función. La incertidumbre es normalmente definida por el error absoluto. La incertidumbre también puede ser definida por el error relativo Δx/x, que usualmente es escrito como un porcentaje. Más comúnmente, el error en una cantidad, Delta x, está dado por la desviación estándar, sigma. La desviación estándar es la raíz cuadrada positiva de la varianza, sigma^2. El valor de una cantidad y su error son, a menudo, expresados como xpm Delta x. Si la distribución de probabilidad estadística de la variable es conocida o puede ser asumida, es posible derivar el intervalo de confianza para describir la región dentro de la cual el valor verdadero de la variable puede ser encontrado. Por ejemplo, el intervalo de confianza de 68% de una variable perteneciente a una distribución normal es ± una desviación estándar del valor, esto es, existe un 68% de probabilidad que el valor verdadero se encuentre en la región x pm sigma. Si las variables están correlacionadas, entonces la covarianza debe ser tomada en cuenta. Índice [ocultar] 1 Combinaciones lineales 2 Combinaciones no lineales 2.1 Ejemplo 3 Advertencias 4 Fórmulas de ejemplo 5 Derivadas parciales 5.1 Ejemplos 5.1.1 Función tangente inversa 5.1.2 Medición de la resistencia 6 Referencias 7 Enlaces externos 8 Véase también Combinaciones lineales[editar · editar fuente] Sea f_k(x_1,x_2,dots,x_n) un conjunto de k funciones que son combinaciones lineales de n variables x_1,x_2,dots,x_n con coeficientes de combinación A_{1k},A_{2k},dots,A_{nk}, (k=1..m). f_k=sum_i^n A_{ik} x_i: mathbf {f=A^Tx}, y sea la matriz de covarianza en x denotada por mathbf {M^x},. {mathbf{M^x}} = egin{pmatrix} sigma^2_1 & ext{COV}_{12} & ext{COV}_{13} & dots \ ext{COV}_{12} & sigma^2_2 & ext{COV}_{23} & dots\ ext{COV}_{13} & ext{COV}_{23} & sigma^2_3 & dots \ vdots & vdots & vdots & ddots \ end{pmatrix} Entonces, la matriz de covarianaza mathbf M^f,, de f está dada por M^f_{ij}= sum_k^n sum_l^n A_{ik} M^x_{kl} A_{lj}: mathbf{ M^f=A^T M^x A}. Esta es la expresión más general para la propagación del error de un conjunto de variables a otro. Cuando los errores en x no están correlacionados, la expresión general se simplifica a M^f_{ij}= sum_k^n A_{ik} left(sigma^2_k ight)^x A_{kj}. Obsérvese que, incluso aunque los errores en x puedan estar no correlacionados, sus errores en f siempre lo están. Las expresiones generales para una función simple, f, son un poco más sencillas. f=sum_i^n a_i x_i: f=mathbf {a^Tx}, sigma^2_f= sum_i^n sum_j^n a_i M^x_{ij} a_j= mathbf{a^T M^x a} Cada término de covarianza, M_{ij} puede ser expresado en términos del coeficiente de correlación ho_{ij}, por M_{ij}= ho_{ij}sigma_isigma_j,, con lo que una expresión alternativa para la varianza de f es sigma^2_f= sum_i^n a_i^2sigma^2_i+sum_i^n sum_{j (j e i)}^n a_i a_j ho_{ij} sigma_isigma_j. En el caso que las variables x estén no correlacionadas, esto se simplifica más aún a sigma^{2}_{f}= sum_i^n a_{i}^{2}sigma^{2}_{i}. Combinaciones no lineales[editar · editar fuente] Cuando f es un conjunto de una combinación no lineal de las variables x, generalmente debe ser linealizada por aproximación a una expansión de la serie de Taylor de primer orden, aunque en algunos casos pueden derivarse fórmulas exactas que no dependen de la expansión.1 f_k approx f^0_k+ sum_i^n frac{partial f_k}{partial {x_i}} x_i Donde frac{partial f_k}{partial x_i} denota la derivada parcial de fk con respecto a la variable i-ésima. Puesto que f0k es una constante, no contribuye al error en f. En consecuencia, la propagación del error sigue el caso lineal, visto anteriormente, pero reemplazando los coeficientes lineales, Aik y Ajk por las derivadas parciales, frac{partial f_k}{partial x_i} y frac{partial f_k}{partial x_j}. Ejemplo[editar · editar fuente] Cualquier función no lineal, f(a,b), de dos variables, a y b, puede ser expandida como fapprox f^0+frac{partial f}{partial a}a+frac{partial f}{partial b}b de donde se tiene sigma^2_f=left(frac{partial f}{partial a} ight)^2sigma^2_a+left(frac{partial f}{partial b} ight)^2sigma^2_b+2frac{partial f}{partial a}frac{partial f}{partial b}COV_{ab}. En el caso particular que f=ab!, frac{partial f}{partial a}=b, frac{partial f}{partial b}=a. Entonces sigma^2_f=b^2sigma^2_a+a^2 sigma_b^2+2abCOV_{ab} o left(frac{sigma_f}{f} ight)^2=left(frac{sigma_a}{a} ight)^2+left(frac{sigma_b}{b} ight)^2+2left(frac{sigma_a}{a} ight)left(frac{sigma_b}{b} ight) ho_{ab}. Advertencias[editar · editar fuente] La estimación de errores para funciones no lineales está sesgada debido al uso de series de expansión truncadas. La extensión de este sego depende de la naturaleza de la función; por ejemplo, el sesgo en el error calculado para log x se incrementa si x aumenta, dado que la expansión de 1+x es una buena aproximación solo si x es pequeña. En aplicaciones de data correspondiente, es a menudo posible asumir que los errores de medida no están correlacionados; sin embargo, los parámetros derivados de estas mediciones, tales como parámetros Mínimos cuadrados, estarán correlacionados. Por ejemplo, en una regresión lineal, los errores en la pendiente y la intercepción estarán correlacionados y esta correlación debe ser tomada en cuenta cuando se derive el error en un valor calculado. y=mz+c: sigma^2_y=z^2sigma^2_m+sigma^2_c+2z ho sigma_msigma_c En el caso especial de la inversa 1/B donde B=N(0,1), la distribución es una distribución de Cauchy y no hay una varianza definible. Para tales distribuciones de ratio, puede haber probabilidades definidas para intervalos que pueden ser definidos o bien por simulación Monte Carlo o, en algunos casos, usando la transformación Geary-Hinkley.2 Fórmulas de ejemplo[editar · editar fuente] Esta tabla muesta las varianzas de funciones simples de las variables reales A,B, con desviaciones estándar sigma_A, sigma_B,, coeficiente de correlación ho_{AB}, y constantes de valores reales, conocidas precisamente, a,b,. Función f = aA, sigma_f^2 = a^2 sigma_A^2, f = aA pm bB sigma_f^2 = a^2sigma_A^2 +b^2 sigma_B^2pm2abCOV_{AB}, f = aAB, left(frac{sigma_f}{f} ight)^2 = left(frac{sigma_A}{A} ight)^2 + left(frac{sigma_B}{B} ight)^2+2 frac{sigma_A}{A} frac{sigma_B}{B} ho_{AB} f = afrac{A}{B} left(frac{sigma_f}{f} ight)^2 = left(frac{sigma_A}{A} ight)^2 + left(frac{sigma_B}{B} ight)^2-2 frac{sigma_A}{A} frac{sigma_B}{B} ho_{AB} f = aA^{pm b} , frac{sigma_f}{f} = b frac{sigma_A}{A} f = a ln(pm bA) , sigma_f = a frac{sigma_A}{A} f = a e^{pm bA} , frac{sigma_f}{f} =bsigma_A f = a^{pm bA} , frac{sigma_f}{f} =bln a sigma_A Para variables no correlacionadas, los términos de covarianza son cero. Puede derivarse expresiones para funciones más complicadas por combinación de funciones más simples. Por ejemplo, la multiplicación repetida, asumiendo ninguna correlación, conduce a: f = AB(C): left(frac{sigma_f}{f} ight)^2 = left(frac{sigma_A}{A} ight)^2 + left(frac{sigma_B}{B} ight)^2+ left(frac{sigma_C}{C} ight)^2. Derivadas parciales[editar · editar fuente] Dados X=f(A, B, C, dots) Error Absoluto Varianza Delta X=left |frac{partial f}{partial A} ight |cdot Delta A+left |frac{partial f}{partial B} ight |cdot Delta B+left |frac{partial f}{partial C} ight |cdot Delta C+cdots sigma_X^2=left (frac{partial f}{partial A}sigma_A ight )^2+left (frac{partial f}{partial B}sigma_B ight )^2+left (frac{partial f}{partial C}sigma_C ight )^2+cdots3 Ejemplos[editar · editar fuente] Función tangente inversa[editar · editar fuente] Se puede calcular la propagación de la incertidumbre para la función tangente inversa como ejemplo del uso de derivadas parciales para la propagación del error. Definiendo f( heta) = arctan heta, donde sigma_ heta es la incertidumbre absoluta en la medida de heta. La derivada parcial de f( heta) con respecto a heta es frac{partial f}{partial heta} = frac{1}{1+ heta^2}. En consecuencia, la incertidumbre propagada es sigma_{f} = frac{sigma_ heta}{1+ heta^2}, donde sigma_f es la incertidumbre absoluta propagada. Medición de la resistencia[editar · editar fuente] Una aplicación práctica es un experimento en el que se mide la corriente, I, y el voltaje de un resistor con el fin de determinar la resistencia, R, usando la ley de Ohm, R = V / I. Dadas las variables medidas con sus incertidumbres, I±ΔI y V±ΔV, la incertidumbre en la cantidad calculada, ΔR, es Delta R = left|frac{Delta V}{I} ight|+left|frac{V}{I^2}Delta I ight|. Referencias[editar · editar fuente] ↑ Leo Goodman (1960). «On the Exact Variance of Products». Journal of the American Statistical Association 55 (292): pp. 708–713. doi:10.2307/2281592. ↑ Jack Hayya, Donald Armstrong y Nicolas Gressis (July 1975). «A Note on the Ratio of Two Normally Distributed Variables». Management Science 21 (11): pp. 1338–1341. ↑ [Lindberg] (05-10-2009). «Uncertainties and Error Propagation» (en eng). Uncertainties, Graphing, and the Vernier Caliper págs. 1. Rochester Institute of Technology. Archivado desde el original el 2004-11-12. Consultado el 20-04-2007. «The guiding principle in all cases is to consider the most pessimistic situation.». Enlaces externos[editar · editar fuente] Incertidumbre y propagación de errores, Apéndice V del Manual de Laboratorio de Mecánica, Case Western Reserve University. Una discusión detallada de las medidas y la propagación de la incertidumbre explica los beneficios de usar fórmulas de propagación de errores y simulaciones Montecarlo, en lugar de simple aritmética significativa.
Posted on: Fri, 30 Aug 2013 05:52:29 +0000

Trending Topics



Recently Viewed Topics




© 2015