quote:
Originally posted by Alteregoxxx:
il 3 è l'algoritmo di Alexey Lukin....(il tizio)...
cmq non si può assolutamente giudicare la bontà dell'utilizzo di una tecnologia a seconda di un genere...no... ma si puo' fare un discorso di massima (e non mi sembra sbagliato assolutamente) cosa che fai anche tu nella prossima frase che ho quotato.... mica avrai l'esclusiva per questo tipo di discorsi ?
e per la cronaca la musica classica sinfonica è stata usata per l'esempio( cmq se leggevi bene sul sito di Lukin non è l'unico genere testato...c'è un brano di musica leggera cantato da lui e anche segnali sintetizzati tipo onde sinusoidali) solo perchè è più frequente trovare dinamiche che scendono così in basso,ovvero i piano e pianissimo per intenderci, ma ciò non toglie che io possa usare nelle mie composizioni di musica pop tali dinamiche..anzi.....
e proprio per le sue variazioni di dinamica io ho detto che solitamente il dithering va bene con le orchestrazioni e solitamente non va bene per altri (ci hai presente il discorso di massima di prima ?)
SOLITAMENTE non vuol dire sempre
non ho mai parlato di regole ASSOLUTE
pero' sei libero di continuare a pensare che io abbia detto SEMPRE.... anche se non e' cosi'
e riguardo l'orchestrazione quello che hai detto tu e' anche quello che ho anticipato io sia nel primo messaggio che nel secondo... non mi e' molto chiaro il perche' tu mi ribatta con frasi che io condivido
io ci aggiungo anche altri fattori... perche' il dithering come lo intendi tu e' SOLO l'algoritmo che aggiunge l'emulazione di rumore bianco
io parlo del software che fa ANCHE il dithering ... ma fa anche altre cose tra le quali il resampling (NATURALMENTE se si rimane nello stesso sample rate allora QUASI SICURAMENTE non c'e' nessun problema... ma tutto questo l'avevo gia' detto nel precedente post)
parlo anche del carico di lavoro perche' cerco di vedere la cosa in senso un pochino piu' ampio
mi spiego
il dithering e' l'atto finale di una scelta che si effettua o meno
tale scelta implica EVENTUALI ulteriori errori di approssimazione ed e' giusto tenerne conto
facciamo due casi opposti
1 - linea di synth con appresso 14 effetti
se lavoro a 24 bit l'approssimazione dovuta agli effetti si mantiene piccolina e quando passo a 16 bit e' molto probabile che (nonostante una ulteriore variazione di segnale dovuta alla sovrapposizione del dithering) il quanto che raggiungo sia quello che maggiormente si avvicina al valore ideale
se invece lavoro direttamente a 16 bit (e quindi non addiziono dithering) c'e' la possibilita' che l'errore di approssimazione totale faccia si' che il sample venga approssimato al gradino piu' lontano dal valore ideale (e per questo se c'e' un carico di lavoro elevato, di SOLITO puo' risultare conveniente lavorare a 24 bit e poi passare a 16)
2 - linea di synth semplice semplice senza niente dietro
se lavoro a 24 bit l'errore di approssimazione e' piccolo... quando passo a 16 bit ci si aggiunge il dither (e' comunque un rumore bianco ... qualche variazione la da') e, bene che mi va, ottengo lo stesso risultato che ho se lavoro direttamente a 16 bit (anche li' l'errore e' piccolo, ma poi non ci va aggiunto piu' nulla)
ma allora tanto vale lavorare a 16 bit direttamente
ci sono tanti aspetti
ho capito che tu vuoi parlare solo del dithering
ma e' riduttivo (parere PERSONALISSIMO)
secondo me bisogna vedere anche tutto quello che c'e' attorno .... dall'inizio alla fine
arrivare freschi freschi al termine di una maratona e' sicuramente un vantaggio
ma se per arrivare cosi' devo metterci 12 giorni le cose cambiano (anche se la freschezza e l'assenza di sudore puzzolente restano sempre un vantaggio)
inoltre mi sapresti spiegare cosa c'entra il microfono o il fatto che il suono di partenza appartiene a un synth con il fatto che il dithering riesce a ridurre drasticamente la percezione degli errori di quantizzazione???...sia che registro con un Neuman sia con un Samson a 24
bit l'errore di quantizzazione è indipendente da essi e anche dai convertitori usati in quanto lui non parla affatto della qualità del suono ma del fatto che con QUALSIASI convertitore A/D registri la successiva riduzione del bit depth porta ad errori di quantizzazione..punto
sempre per il discorso un pochino piu' ampio
se il rumore di quantizzazione e' l'unico allora il dither va bene perche' e' fatto per ovviare a tale errore
ma se ce ne sono altri allora il dither diventa un segnale che che si va a sommare a questi (e non e' detto che la cosa sia buona!!)
mic + ampli + convertitore introduce sporcizia... molta piu' di un suono direttamente sintetizzato
a tale sporcizia devi sommare il rumore bianco emulato (che e' ottimo quando i suoni sono bassi, ma che puo' fare aumentare l'errore di approssimazione in presenza di suoni forti)
non che la cosa sia cosi' terribile di per se'
stiamo parlando di meno di ungradino di errore
ma tutto fa brodo
la freq di campionamento è stata omessa perchè lui non mi pare dica di aver fatto resampling su nessuno dei suoni che puoi ascoltare...e il resampling è un altro argomento e non c'entra con la riduzione della wordlength.........
ti ho gia' dato la mia spiegazione a riguardo
ammettendo che ero stato impreciso
[/QB]poi dire che un "tizio" che fa un algoritmo di dithering e noise shaping migliore di quello Apogee che la sua trattazione (per altro recensita da gente molto più esperta di te e di me mi sa un pò di presunzione....)...
...ammettiamo qualke volta di saperne meno di qualcun altro (Alexey Lukin)....ci arricchirebbe tutti...
enjoy!![/QB]
non ho nessuna pretesa di saperne piu' di te o del tizio
ne' l'ho mai detto
tanto piu' che io un algoritmo di dithering non l'ho mai scritto
la libera interpretazione avra' i suoi vantaggi
ma anche qualche aspetto negativo
mi sono beccato un accusa di presunzione gratuita
per puntualizzare ... la parola tizio l'ho usata perche' non ricordavo il nome
non c'e' nulla di offensivo, denigratorio o ridicolizzante
e' un termine che ha un suo significato (e lo trovo piu' gradevole di caio e di sempronio.... ma meno di mazinga... solo che mazinga poteva essere frainteso)