A página da Wikipedia para Função / Fórmula de Diferença de Magnitude Média (AMDF) parece estar vazia. O que é um AMDF? Quais são as propriedades do AMDF? Quais são os pontos fortes e fracos do AMDF, em comparação com outros métodos de estimativa de pitch, como autocorrelação?

Comentários

Resposta

Nunca vi a palavra “Formula” com “AMDF”. Meu entendimento da definição de AMDF é

$$ Q_x [k, n_0] \ triangleq \ frac {1} {N} \ sum \ limits_ {n = 0} ^ {N-1} \ Grande | x [n + n_0] – x [n + n_0 + k] \ Big | $$

$ n_0 $ é a vizinhança de interesse em $ x [n] $ . Observe que você está resumindo apenas os termos não negativos. Portanto, $ Q_x [k, n_0] \ ge 0 $ . Chamamos “ $ k $ ” de “lag” . Claramente se $ k = 0 $ , então $ Q_x [0, n_0] = 0 $ . Além disso, se $ x [n] $ é periódico com período $ P $ (e vamos fingir por enquanto que $ P $ é um inteiro) então $ Q_x [P, n_0] = 0 $ e $ Q_x [mP, n_0] = 0 $ para qualquer inteiro $ m $ .

Agora mesmo se $ x [n] $ não for precisamente periódico, ou se o período não for precisamente um número inteiro de amostras (na taxa de amostragem específica que você está usando), nós esperaria $ Q_x [k, n_0] \ approx 0 $ para qualquer atraso $ k $ que estivesse próximo para o período ou qualquer múltiplo inteiro do período. Na verdade, se $ x [n] $ for quase periódico, mas o período não for um número inteiro de amostras, esperamos ser capazes de interpolar $ Q_x [k, n_0] $ entre valores inteiros de $ k $ para obter um mínimo ainda mais baixo.

Meu favorito não é o AMDF, mas o “ASDF” (adivinhe o que significa “S”?)

$$ Q_x [k, n_0 ] \ trianguloq \ frac {1} {N} \ soma \ limites_ {n = 0} ^ {N-1} \ grande (x [n + n_0] – x [n + n_0 + k] \ grande) ^ 2 $ $

Acontece que você pode fazer cálculos com isso porque a função quadrada tem derivadas contínuas, mas a função de valor absoluto não.

Aqui está outro motivo pelo qual gosto ASDF melhor do que AMDF. Se $ N $ for muito grande e nós jogaremos um pouco rápido e solto com os limites de soma:

$$ \ begin {align} Q_x [k] & = \ frac {1} {N} \ left (\ sum_n \ big (x [n] – x [n + k] \ big) ^ 2 \ right) \\ & = \ frac {1} {N} \ left (\ sum_n (x [n]) ^ 2 + \ sum_n (x [ n + k]) ^ 2 – 2 \ sum_n x [n] x [n + k] \ direita) \\ & = \ frac {1} {N} \ sum_n ( x [n]) ^ 2 + \ frac {1} {N} \ sum_n (x [n + k]) ^ 2 – \ frac {2} {N} \, \ sum_n x [n] x [n + k ] \\ & = \ overline {x ^ 2 [n]} + \ overline {x ^ 2 [n]} – 2 \, R_x [k] \\ & = 2 \ left (\ overline {x ^ 2 [n]} – R_x [k] \ right) \\ \ end {align} $$

onde

$$ \ begin {align} R_x [k] & \ triangleq \ frac {1} {N} \ sum_n x [n] x [n + k] \\ & = \ overline {x ^ 2 [n]} – \ tfrac {1} {2} Q_x [k] \\ & = R_x [0] – \ tfrac {1} {2} Q_x [k] \\ \ end {align} $$

é normalmente identificado como a “autocorrelação” de $ x [n] $ .

Portanto, esperamos que a função de autocorrelação seja uma réplica invertida (e deslocada) do ASDF. Onde quer que haja picos de autocorrelação é onde o ASDF (e geralmente também o AMDF) tem um mínimo.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *