Wikipedia-siden for gjennomsnittsstørrelsesforskjell funksjon / formel (AMDF) ser ut til å være tom. Hva er en AMDF? Hva er AMDFs egenskaper? Hva er AMDFs styrker og svakheter, sammenlignet med andre pitchestimeringsmetoder som autokorrelasjon?

Kommentarer

Svar

Jeg har aldri sett ordet «Formula» med «AMDF». Min forståelse av definisjonen av AMDF er

$$ Q_x [k, n_0] \ triangleq \ frac {1} {N} \ sum \ limits_ {n = 0} ^ {N-1} \ Big | x [n + n_0] – x [n + n_0 + k] \ Big | $$

$ n_0 $ er nabolaget av interesse i $ x [n] $ . Merk at du bare oppsummerer ikke-negative termer. Så $ Q_x [k, n_0] \ ge 0 $ . Vi kaller « $ k $ » «lag» . Tydelig hvis $ k = 0 $ , deretter $ Q_x [0, n_0] = 0 $ . Også hvis $ x [n] $ er periodisk med periode $ P $ (og la oss late som for øyeblikket at $ P $ er et helt tall) deretter $ Q_x [P, n_0] = 0 $ og $ Q_x [mP, n_0] = 0 $ for ethvert heltall $ m $ .

Nå til og med hvis $ x [n] $ ikke er nøyaktig periodisk, eller hvis perioden ikke er nøyaktig et helt antall prøver (til den spesielle samplingsfrekvensen du bruker), vil vi forventer $ Q_x [k, n_0] \ ca 0 $ for enhver forsinkelse $ k $ som er nær til perioden eller et helt tallmultipel av perioden. Faktisk, hvis $ x [n] $ er nesten periodisk, men perioden ikke er på et helt antall prøver, forventer vi å kunne interpolere $ Q_x [k, n_0] $ mellom heltallverdiene $ k $ for å få et enda lavere minimum.

Min favoritt er ikke AMDF men «ASDF» (gjett hva «S» står for?)

$$ Q_x [k, n_0 ] \ triangleq \ frac {1} {N} \ sum \ limits_ {n = 0} ^ {N-1} \ big (x [n + n_0] – x [n + n_0 + k] \ big) ^ 2 $ $

Det viser seg at du kan gjøre kalkulasjon med det fordi kvadratfunksjonen har kontinuerlige derivater, men absoluttverdifunksjonen ikke.

Her er en annen grunn til at jeg liker ASDF bedre enn AMDF. Hvis $ N $ er veldig stor, og vi spiller litt fort og løst med grensene for summering:

$$ \ begin {align} Q_x [k] & = \ frac {1} {N} \ left (\ sum_n \ big (x [n] – x [n + k] \ big) ^ 2 \ høyre) \\ & = \ frac {1} {N} \ left (\ sum_n (x [n]) ^ 2 + \ sum_n (x [ n + k]) ^ 2 – 2 \ sum_n x [n] x [n + k] \ right) \\ & = \ frac {1} {N} \ sum_n ( x [n]) ^ 2 + \ frac {1} {N} \ sum_n (x [n + k]) ^ 2 – \ frac {2} {N} \, \ sum_n x [n] x [n + k ] \\ & = \ overline {x ^ 2 [n]} + \ overline {x ^ 2 [n]} – 2 \, R_x [k] \\ & = 2 \ left (\ overline {x ^ 2 [n]} – R_x [k] \ right) \\ \ end {align} $$

hvor

$$ \ begin {align} R_x [k] & \ triangleq \ frac {1} {N} \ sum_n x [n] x [n + k] \\ & = \ overlinje {x ^ 2 [n]} – \ tfrac {1} {2} Q_x [k] \\ & = R_x [0] – \ tfrac {1} {2} Q_x [k] \\ \ end {align} $$

blir vanligvis identifisert som «autokorrelasjon» til $ x [n] $ .

Så vi forventer at autokorrelasjonsfunksjonen skal være en opp ned (og forskjøvet) kopi av ASDF. Uansett hvor autokorrelasjonstoppene er, har ASDF (og vanligvis også AMDF) et minimum.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *