La página de wikipedia para la función / fórmula de diferencia de magnitud promedio (AMDF) parece estar vacía. ¿Qué es un AMDF? ¿Cuáles son las propiedades de AMDF? ¿Cuáles son las fortalezas y debilidades de AMDF, en comparación con otros métodos de estimación de tono, como la autocorrelación?

Comentarios

Respuesta

Nunca he visto la palabra «Fórmula» con «AMDF». Mi comprensión de la definición de AMDF es

$$ Q_x [k, n_0] \ triangleq \ frac {1} {N} \ sum \ limits_ {n = 0} ^ {N-1} \ Big | x [n + n_0] – x [n + n_0 + k] \ Big | $$

$ n_0 $ es el barrio de interés en $ x [n] $ . Ten en cuenta que solo estás resumiendo términos no negativos. Por lo tanto, $ Q_x [k, n_0] \ ge 0 $ . Llamamos « $ k $ » el «lag» . Claramente si $ k = 0 $ , luego $ Q_x [0, n_0] = 0 $ . Además, si $ x [n] $ es periódico con el período $ P $ (y pretendamos por el momento que $ P $ es un número entero) luego $ Q_x [P, n_0] = 0 $ y $ Q_x [mP, n_0] = 0 $ para cualquier entero $ m $ .

Ahora incluso si $ x [n] $ no es precisamente periódico, o si el período no es precisamente un número entero de muestras (a la frecuencia de muestreo particular que está utilizando), esperaría $ Q_x [k, n_0] \ approx 0 $ para cualquier retraso $ k $ que esté cerca al período o cualquier múltiplo entero del período. De hecho, si $ x [n] $ es casi periódico, pero el período no es un número entero de muestras, esperamos poder interpolar $ Q_x [k, n_0] $ entre valores enteros de $ k $ para obtener un mínimo aún más bajo.

Mi favorito no es el AMDF sino el «ASDF» (¿adivina qué significa la «S»?)

$$ Q_x [k, n_0 ] \ triangleq \ frac {1} {N} \ sum \ limits_ {n = 0} ^ {N-1} \ big (x [n + n_0] – x [n + n_0 + k] \ big) ^ 2 $ $

Resulta que puedes hacer cálculo con eso porque la función cuadrada tiene derivadas continuas, pero la función de valor absoluto no.

Aquí tienes otra razón por la que me gusta ASDF mejor que AMDF. Si $ N $ es muy grande y jugamos un poco rápido y suelto con los límites de la suma:

$$ \ begin {align} Q_x [k] & = \ frac {1} {N} \ left (\ sum_n \ big (x [n] – x [n + k] \ big) ^ 2 \ right) \\ & = \ frac {1} {N} \ left (\ sum_n (x [n]) ^ 2 + \ sum_n (x [ n + k]) ^ 2 – 2 \ sum_n x [n] x [n + k] \ right) \\ & = \ frac {1} {N} \ sum_n ( x [n]) ^ 2 + \ frac {1} {N} \ sum_n (x [n + k]) ^ 2 – \ frac {2} {N} \, \ sum_n x [n] x [n + k ] \\ & = \ overline {x ^ 2 [n]} + \ overline {x ^ 2 [n]} – 2 \, R_x [k] \\ & = 2 \ left (\ overline {x ^ 2 [n]} – R_x [k] \ right) \\ \ end {align} $$

donde

$$ \ begin {align} R_x [k] & \ triangleq \ frac {1} {N} \ sum_n x [n] x [n + k] \\ & = \ overline {x ^ 2 [n]} – \ tfrac {1} {2} Q_x [k] \\ & = R_x [0] – \ tfrac {1} {2} Q_x [k] \\ \ end {align} $$

normalmente se identifica como la «autocorrelación» de $ x [n] $ .

Así que esperamos que la función de autocorrelación sea una réplica invertida (y compensada) del ASDF. Dondequiera que la autocorrelación alcance su punto máximo es donde el ASDF (y generalmente también el AMDF) tiene un mínimo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *