Originariamente inviato da
marcoc1712
Benvenuto.
Ovviamente solo nel campo delle ipotesi, dato che non dispondo delle misure, ma per deduzione SE applicando la correzione di AudioDiffMaker la differenza svanisce, mi pare evidente che si tratti di una differenza 'correggibile' da quell'algoritmo, quindi delay o sample rate drift, non altro.
Spero converrai che il delay è del tutto ininfluente e non va considerato, o meglio se un player è più costante nel delay di un altro... non è che per questo sia preferibile, non più di uno con case giallo rispetto ad uno con case rosso.
Ho già fornito un ipotesi su come questo si possa ottenere da programma e dato che WFT ha un evidente ritardo in partenza, dovuto al caricamento del brano in RAM, mi pare che il caso sia proprio questo.
In teoria - ma non credo - potrebbe trattarsi anche di sample rate drift. Essendo coinvolto un processo DA/AD le differenze in frequenza si 'staticizzano' nei bit, quindi vengono rilevate come differenze, ma in realtà sono presenti SOLO perchè sono coinvolti due diversi clock. Se si usasse un master clock verebbero elise e quindi non comparirebbero. Per questo si applica la compensazione software.
Una volta applicata la correzione, quindi ritrovato l'allineamneto ed eliminato l'eventuale drift, non mi pare che WTF presenti "più costanza", anzi, a me pare che il primato (per quel che vale) vada attribuito a Daphile, ma visti i livelli assoluti (siamo < -86db a 40Khz) direi che le differenze di per se siano quasi trascurabili, in quanto molto vicine alla soglia teorica di risoluzione dei due dac in serie.
Dovremmo trovare un accordo su questo, altrimenti continuiamo ad attribuire 'maggiore costanza' a WTF, quando è solo minore varabilità del delay, un parametro del tutto ininfluente.
Comunque, ammettiamolo, WTF è certamente più costante nel delay di inizio riproduzione, mentre Daphile e Foobar partono con ritardi 'imprecisati' ogni volta. Sarà un caso che WTF non è gapless?