Breve storia della musica elettronica 2/2

Ecco la Seconda Parte della Breve storia della musica elettronica

a cura di lupino

Seconda Parte

Vai alla prima parte

Rivoluzione

La rivoluzione della musica elettronica avvenne quando il concetto di musica si allargò cominciando a includere tutti i possibili suoni.

Tra i precursori di questa rivoluzione c’è l’italiano Luigi Russolo col suo Intonarumori del 1913 che, benché non includesse circuiteria elettrica, ebbe un grande ruolo nell’affermare l’idea di includere il rumore e i suoni ambientali nella musica moderna.

Figura 10 – Luigi Russolo

Futurista e firmatario del manifesto ?L?arte dei rumori? (11 marzo 1913), in cui si teorizzava l’impiego del rumore nel contesto musicale. Visionario e precursore e’ considerato il primo uomo ad aver teorizzato e praticato il concetto di musica elettronica sostenendo che la musica doveva essere composta prevalentemente di rumori e non di suoni armonici.

Un altro personaggio importante per l?evoluzione della musica elettronica è stato John Milton Cage (Los Angeles, 5 Set 1912 – New York, 12 ago 1992).

Figura 11 – John Cage

 

Egli fu il primo compositore ad utilizzare suoni ambientali come materiale musicale nel suo “Imaginary Landscape #1” del 1939 nel quale utilizzò suoni registrati suonati su due
giradischi con velocità di rotazione variabile, percussioni e rumori. Fu uno dei più importanti
protagonisti dell’avanguardia musicale perché rivoluzionò il concetto stesso di
opera musicale. Il suo contributo alla musica di oggi è fondamentale, addirittura incalcolabile, in Italia è conosciuto anche per aver partecipato a “lascia o raddoppia” di Mike
Bongiorno in quanto esperto micologo; in quella occasione stupì il
pubblico con un concerto per caffettiere.

Nel 1948 Pierre Schaeffer (Nancy, Fr 1910 – 1995), un ingegnere e annunciatore di Radiodiffusion Francaise, con uno studio di registrazione mobile registrò nei pressi di Parigi
il rumore dei motori a vapore di alcune locomotive (compresi i fischi del treno
ed il rumore delle rotaie) che poi editò arrivando a creare una breve
composizione che chiamò ?Etude aux Chemins de fer? che fu trasmessa, con grande successo, via radio, insieme ad altri pezzi creati con tecniche simili sotto il nome di
“Concerto di rumori”.

Egli è anche responsabile del termine “musica concreta” e, in un certo senso, viene considerato
l?inventore di quel tipo di musica.

schaefferGRM
Figura 12 -Pierre Schaeffer

 

Schaeffer aveva utilizzato un ssistema di registrazione diretta su disco. Intorno al 1950 i registratori a nastro avevano fatto la loro apparizione sul mercato e l’idea di utilizzare
suoni registrati per scopi artistici era nell’aria. Nacquero studi in tutto il
mondo: Colonia, Milano, New York, Tokyo, Buenos Aires etc.

All’esposizione mondiale diBruxelles del 1958 nel padiglione della Philips, progettato dall’architetto Le Corbusier, ci fu la prima spettacolare rappresentazione multimediale di suoni e immagini. La musica, diffusa da 425 altoparlanti, posizionati per creare effetti di spazializzazione del suono, includeva le composizioni di musica concreta ?Poeme
Electronique? di Edgar Varese (1883 – 1965) e “Concrete PH” di Iannis Xenakis (1922). Le immagini erano proiezioni e luci create da Le Corbusier.

Nel 1957 la RCA costruì il sintetizzatore Mark II, un sintetizzatore analogico controllato da nastri di carta perforata. L’enorme macchina era troppo complessa per poter avere un successo commerciale.

Nel 1959 grazie alla Fondazione Rockefeller fu acquistata per il neonato centro di musica
elettronica della Università Columbia-Princeton a New York e utilizzato
sopratutto dal compositore Milton Babbitt (Philadelphia, 10 mag 1916).

Figura 13 – Babbit (il primo da sinistra) davanti ad un RCA Mark II

 

Sempre nel 1957 Max Mathews (Columbus, Nebraska, 13 nov 1926), presso i laboratori della compagnia telefonica Bell, sviluppò Music I, il primo programma per computer per generare
suoni. L’entusiasmo generato dalla possibilità di creare suoni digitalmente portò, negli anni successivi, a varie modifiche e miglioramenti che sfociarono, nel 1968, nello sviluppo di Music V (divenne il modello base della maggior parte del successivo software musicale [3] .

Un momento significativo di quegli anni fu l’utilizzo del computer per cantare una canzone nella parte finale del film di Stanley Kubrick “2001:odissea nella spazio”. Hal (il computer di bordo)
canta una canzone mentre viene disattivato. Nei suoi ultimi istanti di “vita” ricorda la sua esistenza, compresa la sua “infanzia” ai laboratori Bell.

Dagli anni ’60 ad oggi, la tecnologia applicata alla musica elettronica è andata evolvendo, di pari passo con lo sviluppo della tecnologia in generale. Gli anni ’60 furono quelli dello sviluppo dei sintetizzatori analogici. Tra questi devono essere sicuramente ricordati quelli ideati da Robert Moog (23 mag 1934 – 21 ago 2005) e Donald Buchla. Per il primo si ripeté quello
che già era successo con Hammond: Moog divenne sinonimo di sintetizzatore.

I primi sintetizzatori sviluppati da Robert Moog nel 1964 con il compositore Herbert Deutsch avevano una struttura modulare. I moduli (tra cui oscillatori, filtri, generatori d’inviluppo e mixer) erano collegati tra loro da cavi. I vantaggi di questo tipo di
struttura erano sia musicali, in quanto i moduli potevano essere collegati tra
loro in vari modi rendendo possibile una grande varietà timbrica, sia commerciali in quanto il sistema poteva essere ampliato un po’ per volta. Fu Moog, nel 1967, che dette
il nome di sintetizzatore ai suoi strumenti chiamando il primo modello modulare
col nome di Moog Modular Synthesizer e fu in quello stesso anno che i suoi
strumenti cominciarono ad attrarre una attenzione anche commerciale.

mmog_modular
Figura 14 – Moog Modular Synthesizer

 

Questo sintetizzatore ha avuto, nel mondo della discografia musicale, un impatto immenso. Le sue enormi capacità timbriche e la possibilità di acquistarne solo i moduli necessari lo rendevano un prodotto innovativo e, allo stesso tempo, anche relativamente economico;
tutte qualità che contribuirono all?enorme successo.

Il Moog Modular è un sintetizzatore che permette di utilizzare molti tipi di sintesi sonora (anche
in maniera concorrente): sintesi additiva, sintesi sottrattivi, sintesi FM. Se si pensa che uscì agli
albori della musica elettronica si intuisce quanto innovativo fosse. Ancora oggi la maggior parte
dei nuovi synth commercializzati ha una struttura molto più semplice e
potenzialità timbriche inferiori. Per dare un?idea della complessità di questo sistema riporto di seguito una lista dei moduli disponibili sul mercato:

  • 901 – LFO
  • 901A – VCO controller (1 voltper octave)
  • 901B – VCO
  • 901C – VCO output stage (usedon early systems)
  • 901D – VCO output stage
  • 902 – VCA (2 inputs, 2 outputs, 3 CV inputs)
  • 903 – white noise (used on early systems before 903A)
  • 903A – random signal generator (white or pink noise)
  • 904 – VCF
  • 904A – low-pass VCF (24dB-per-octave, considered the classic Moog filter)
  • 904B – high-pass VCF
  • 904C – filter coupler
  • 905 – spring reverb
  • 907 – fixed filter bank (Moog10 and Moog 12)
  • 907A – fixed filter bank
    (Moog 15 and Moog 35)
  • 909 – power supply (Moog 15)
  • 910 – power supply
  • 911 – ADSR envelope generator (adjustable from 2 ms to 10 seconds)
  • 911A – dual trigger delay
  • 912 – envelope follower
  • 914 – fixed filter bank (12-band, 125 Hz to 5 kHz, with high-pass and low-pass knobs)
  • 920 – power supply
  • 921 – VCO (1.01 Hz to 40 kHz)
  • 921A – VCO controller (1 volt per octave)
  • 921B – VCO (more stable than 901B)
  • 923 – noise, high-pass and low-pass filter
  • 928 – sample-and-hold (not rack-mounted)
  • 930 – power supply (Moog 35 and Moog 55)
  • 950 – 49-note keyboard
  • 950A – keyboard controller
  • 950B – scale programmer
  • 951 – 61-note keyboard
  • 952 – 49-note, duophonic keyboard
  • 955 – ribbon controller (replaced by 956)
  • 956 – ribbon controller
  • 958 – pedal controller
  • 959 – joystick (X-Y) controller
  • 960 – sequencer (3 rows of eight steps)
  • 961 – sequencer interface
    Include voltage-trigger to S-trigger and back
  • 961CP – sequencer interface
    panel (Moog 55)
  • 962 – sequencer switch (for
    controlling multiple sequencers)
  • 984 – 4X4 matrix mixer
  • 991 – filter and attenuator
  • 992 – control voltages
    (illuminated red or blue switches linked to the 904A)
  • 993 – trigger/envelope
    (illuminated yellow or green switches)
  • 994 – jack multiples
    (duplicates voltages)
  • 995 attenuators
  • 1120 – foot pedal
  • 1125 – sample-and-hold
  • 1130 – drum controller
  • 1131 – percussion controller
  • 1150 – ribbon
    controller (mounted on a long thin box)
  • 1630 – Bode Frequency Shifter
    (designed by Harold Bode)
  • 1634 – pitch-to-voltage
    converter
  • 6401 – Bode ring
    modulator
  • CP1 – CV and trigger outputs
    (Moog 3P)
  • CP2 – CV and trigger outputs,
    and filters
  • CP3 – 4X1 mixer
  • CP3A – mixer (illuminated
    switches linked to the VCOs)
  • CP4 – CV and trigger outputs,
    attenuators (Moog 1C)
  • CP4A – CV and trigger outputs
    (Moog 35)
  • CP5 – CV and trigger outputs
    (designed for the “P” series)
  • CP6 – CV and trigger outputs
    (designed for the “P” series)
  • CP7 – CV and trigger outputs,
    multiples (designed for the “P” series)
  • CP8 – power switch (Moog 2C
    and Moog 3C)
  • CP8A – power switch (Moog 35
    and Moog 55)
  • CP9 power switch (Moog 3P)
  • CP11 – mixer, triggers,
    outputs (Moog 10; four-input mixer, jack multiples, attenuator, 2 CV and
    trigger outputs, and 2 audio outputs)
  • CP35 – attenuators (Moog 35)

 

Nel tempo sono stati prodottimolti tipi differenti di sintetizzatori Moog ma si può affermare che quelli che hanno fatto la storia del marchio e contemporaneamente della musica elettronica
sono stati il già citato Moog modulare ed il MiniMoog (una versione ridotta e con cablaggi fissi del Moog modulare).

minimoog
Figura 15 – MiniMoog

 

Nel 1969 il disco di Wendy Carlos (che all?epoca, prima di cambiare sesso, si chiamava Walter)
“Switched on Bach”, arrangiato e suonato con un un sintetizzatore Moog, fu il primo successo discografico di musica elettronica.

switch1b
Figura 16 – Copertina di “Switched on Bach”

 

Fare una lista degli artisti che hanno usato prodotti Moog è impossibile, ma vale la pena citare almeno Keith Emerson (degli EL&P) ed i Tangerine Dreams.

Anche i sintetizzatori Buchla di quegli anni erano modulari ma si differenziavano dagli altri per un paio di caratteristiche innovative: l’interfaccia utente non utilizzava la solita
struttura a tastiera tipo pianoforte o organo ma superfici a sfioramento e i
sistemi includevano un sequencer che consentiva agli utenti di memorizzare una
sequenza di eventi da suonare automaticamente.

Figura 17 – Sintetizzatore Buchla

I primi modelli furono prodotti da Don Buchla su commissione del compositore Morton Subotnick che li utilizzò per realizzare il suo primo importante lavoro di musica elettronica: ?Silver Apples Of The Moon?. Subotnick partecipò all?’ideazione di questi sintetizzatori con le proprie idee e con suggerimenti tesi ad esaudire quelle che erano le sue necessità a livello artistico. Questi synth presentano delle innovazioni notevoli per il tempo e che hanno influenzato fortemente tutti i prodotti venuti dopo. Oltre al già citato sequencer ricordiamo l?idea di realizzare il tutto in un singolo box di dimensioni non eccessive (a differenza del Moog modulare) che è stata ampiamente ripresa e sviluppata in seguito dando vita ai cosiddetti prodotti ?all in one? (come le daw audio su calcolatore).

 

Gli anni ’70 videro l’avvento dei sintetizzatori digitali come il Synclavier.

Il Synclavier, sviluppato da Sydney Alonso e Cameron Jones con la consulenza musicale di John Appleton fu disponibile dal 1977. Era il discendente diretto del Dartmouth Digital Synthesizer, il primo sintetizzatore digitale, costruito dallo stesso gruppo nel 1972. L’idea era quella di
costruire uno strumento adatto ad un uso dal vivo con un pannello di controllo dal quale fosse possibile gestire i parametri della macchina in tempo reale. Questo sistema poteva campionare il suono ad una frequenza di 100kHz e stoccava i campioni su dischi magneto-ottici.

Figura 18 – Synclavier I

 

Nel 1979 uscì la nuova versione del Synclavier, il Synclavier II, che divenne in breve tempo un grande successo commerciale venendo ampiamente utilizzato dall’industria cinematografica e nella composizione e produzione della musica pop.

Fu utilizzato da centinaia di artisti tra i quali ricordiamo: Pat Metheny, Michael Jackson, Laurie Anderson, Frank Zappa ed i Depeche Mode.

 

Gli anni ’80 videro l’espandersi del mercato della musica elettronica.

Ikutaro Kakehashi, fondatore e presidente della Roland, intuì che era necessario trovare un protocollo d’intesa tra i vari produttori per standardizzare (e quindi ulteriormente
sviluppare) il settore. Così, con Dave Smith, presidente della Sequential Circuits ed in collaborazione con altri produttori fu definito un protocollo che fu chiamato MIDI (interfaccia digitale per strumenti musicali) che consentisse a strumenti prodotti da varie compagnie di
dialogare tra loro, in modo che, per esempio, una tastiera Roland potesse controllare un sintetizzatore Yamaha. La prima stesura del protocollo MIDI risale al 1983. Ne seguirono altre fino ad arrivare allo standard usato ai nostri giorni (e che comprende delle particolari
estensioni come il GM MIDI).

Sempre nel 1983 lo Yamaha DX7 divenne il primo sintetizzatore MIDI di successo.

YamahaDX7Figura 19 – Yamaha DX7

 

L’anno successivo Dave Oppenheim della Opcode Systems sviluppò un’interfaccia MIDI per consentire ad un computer Macintosh di scambiare informazioni con un sintetizzatore MIDI
aprendo le porte ad un nuovo mondo di software musicale. Nasceva così il concetto di
studio audio con al centro il calcolatore elettronico in cui il computer sincronizza tutti gli strumenti MIDI (fornendo un clock comune) ed invia istruzioni a ciascuno di essi. L?evolvere del protocollo MIDI ha permesso al computer di dialogare con gli strumenti in modo sempre più
raffinato ampliando la possibilità dei comandi da impartire ai vari devices
MIDI.

I sistemi audio informatizzati divennero presto sempre più evoluti; alle possibilità offerte
dal MIDI se ne affiancarono di nuove. Vennero create schede di
acquisizione audio che permettevano di memorizzare, direttamente su
calcolatore, l?output degli strumenti esterni (non solo quelli MIDI) e il
computer divenne anche un mezzo per l?elaborazione diretta degli eventi sonori.

Negli anni 80 vengono prodotti i primi software per l?elaborazione degli eventi audio, ma si tratta
ancora di applicazioni molto semplici. Gli anni ’90 hanno sancito un
sempre maggior uso degli strumenti elettronici grazie all’avanzamento
tecnologico e ad un conseguente miglioramento del rapporto qualità/prezzo che
ha consentito ad un pubblico sempre più vasto l’accesso a queste tecnologie che
solo pochi anni prima erano appannaggio esclusivo di una ristretta elite.

In questo decennio le evoluzioni maggiori si hanno proprio nel campo dei
software Audio/MIDI. I sequencers multitraccia ideati verso la fine degli anni 80 acquisiscono una forma definitiva e diventano il fulcro attorno al quale ruota tutto il lavoro del musicista
informatizzato. Gli eventi audio non sono più soltanto manipolati, ma vengono addirittura sintetizzati direttamente dal calcolatore tramite programmi appositi. La maggior parte di questi
applicativi viene rilasciato sotto forma di plug-in da integrare negli ambienti
di lavoro interni ai sequencers.

Sono nati, di conseguenza, vari protocolli per l?implementazione dei plug-ins audio e ciascun sequencer usa il proprio (si affermano degli standard di fatto). Parliamo di VST (per Cubase), AudioUnit (per Logic), TDM ed RTAS (per ProTools) ed infine DFX (per Digital Performer).

Viene creato anche un protocollo per far dialogare fra loro i sequencer; stiamo parlando del
protocollo Rewire mediante il quale un sequencer come Cubase può funzionare da
master ed usare come slave un altro sequencer come Ableton Live oppure Reason o
anche Rebirth 338 (in questo modo è possibile usare in un unico ambiente più
plug-ins appartenenti a tipologie differenti).

I computer diventano, inoltre, delle vere e proprie macchine da utilizzare in relative durante
esecuzioni dal vivo. Sorge l?esigenza di prestazioni particolari da parte delle schede audio; non sono tollerabili latenze superiori ai 20 millisecondi (confondono l?esecutore) e nascono così
anche dei protocolli per ottenere una gestione soddisfacente dei driver delle
schede audio. Ogni produttore rilascia i propri driver, ma questi devono attenersi a determinati standard (se si vuole integrare le schede audio in ambienti professionali con il massimo delle
prestazioni).

Attualmente il protocollo di gestione delle schede audio più utilizzato è il sistema ASIO (Audio Stream Output). Mediante questo protocollo si raggiungono, nella maggior parte dei casi, delle velocità di reazione paragonabili a quelle dei dispositivi analogici (suonando uno strumento
virtuale mediante una tastiera MIDI il tempo che intercorre tra la pressione
del tasto e l?emissione del suono può arrivare ad essere dell?ordine dei 5
millisecondi).

Da tutto quello che abbiamo presentato fino ad ora è lampante l?apporto che la tecnologia ha dato allo sviluppo della musica elettronica. Le invenzioni in questo campo
hanno sempre seguito a ruota le scoperte e le innovazioni che caratterizzavano
il mondo della tecnologia elettronica. Anche adesso la tendenza è la stessa; si cerca di cavalcare l?onda delle novità tecnologiche e si sfrutta l?aumento della potenza offerta dagli elaboratori elettronici per poter ottenere prestazioni sempre più avanzate. Questo permette di avere
maggiore precisione di calcolo (si è passati dai canonici 16 bit agli attuali 32 bit a virgola mobile ma con i nuovi processori a 64 bit ci sarà un ulteriore miglioramento) e minore aliasing (grazie al fatto che si può campionare a frequenze sempre più elevate). Inoltre ci sono settori, come quello dell’?emulazione di strumenti ?reali?, che beneficiano molto dall?aumento di capacità di calcolo; questo perché si possono implementare sistemi algoritmi sempre più complessi senza correre il rischio che il computer non riesca ad elaborare i dati in tempo reale.

Il futuro prossimo è proiettato verso il settore dei sensori; si ipotizza la creazione di interfacce
sempre più raffinate. Basta lasciare libera la fantasia per trovare infiniti campi di applicazione: guanti particolari che permetteranno di suonare una chitarra o un pianoforte senza che un tale strumento sia davvero in nostro possesso, sistemi di database di loops che consentiranno
di effettuare ricerche canticchiando una parte del loop cercato, sistemi di editing che renderanno possibile il puntamento mediante la vista e l?invio di comandi tramite voce, etc.

La cosa importante è quelladi trovare un sempre maggiore numero di strumenti di lavoro in modo da ampliarele possibilità di espressione ed il bagaglio tecnico del singolo artista. Tutto questo ha consentito e consentirà l’emergere di nuovi concetti legati all’uso della tecnologia
applicata alle forme artistiche audiovisive. L’allargamento del concetto
di arte e di comunicazione, insieme all’adattamento di nuove tecnologie alle
esigenze degli artisti, permetterà a chiunque un grado di creatività neanche
ipotizzabile fino a qualche decennio fa.

 

Tipologie di dispositivi audio

L?evoluzione della musica elettronica ha permesso l?avvento di un numeroso insieme di dispositivi utili alla generazione ed alla manipolazione sonora. Esistono vari modi di
classificare i dispositivi elettronici audio. Un primo tipo di catalogazione utile è quello relativo alla tecnologia di base utilizzata. In questo senso si può affermare che i devices audio si dividono in due grandi categorie; la categoriadei dispositivi analogici e quella dei dispositivi digitali.

Ciò che cambia è il tipo di tecnologia elettronica utilizzata che, nella maggior parte dei casi, influenza notevolmente la qualità del suono. Con questo non si vuole
sostenere che l?una sia meglio dell?altra ma soltanto che sono differenti;
ciascuna ha i propri pregi ed i propri difetti e sovente la linea di
demarcazione tra aspetti positivi ed aspetti negativi è soltanto frutto del
gusto personale. Infatti la caratteristica più amata dagli appassionati dell?analogico è la particolare colorazione del suono che nasce dal rumore termico, dalle distorsioni degli elementi circuitali e dalla tipica saturazione non lineare che sorge per dinamiche sonore elevate. Tutti elementi che, in altri settori, si tende solitamente ad eliminare o comunque a ridurre il più
possibile. Ma ci sono anche altri
aspetti; si pensi, per esempio, al fatto che la resistenza e la capacità dei
conduttori elettrici variano con le condizioni ambientali e, proprio a causa di
questo fenomeno, spesso capita che gli oscillatori di alcuni sintetizzatori
analogici perdano l?accordatura (magari anche durante esecuzioni dal vivo). Alla fine, però, quello che
sembrava essere il tallone d?Achille della strumentazione analogica viene oggi
considerato proprio il suo punto di forza. Il fatto che risuonando la
stessa nota non si ottenga mai lo stesso suono dà alle esecuzioni effettuate
tramite strumentazione analogica il gusto dell?evento ?unico ed irripetibile? e
la presenza di rumore termico e distorsioni non lineari rende il suono
analogico molto ?caldo?.

Cosa che non accade, invece,
quando si parla di strumenti di tipo digitale (in realtà quanto appena
affermato ha valore solo se non si tiene conto dei convertitori D/A; la parte
finale della catena di qualsiasi impianto audio è sempre necessariamente di
tipo analogico). La strumentazione digitale è
caratterizzata da un tipo di rumore differente da quello termico che prende il
nome di rumore di quantizzazione (in realtà non è un fenomeno aleatorio, ma soltanto
un errore di approssimazione). Il rumore di quantizzazione
dipende dal numero di bits utilizzati per rappresentare l?informazione sonora
(maggiore è questo numero e minore è il rumore) e si ripete identico ad ogni
esecuzione.

L?’assenza di rumore termico non è la sola differenza ?udibile?; la possibilità di rappresentare il suono in
forma numerica permette di eliminare qualunque tipo di distorsione non lineare
e qualunque tipo di effetto di saturazione (che, nell?analogico, è funzione
continua della dinamica). L?unico effetto di
saturazione presente nel campo dell?audio digitale avviene quando si supera la
soglia di massima dinamica. Oltre tale soglia il
calcolatore non è in grado di rappresentare numericamente l?ampiezza del
segnale; allora lo tronca al massimo  valore consentito dalla rappresentazione adottata, creando il fenomeno
del ?clip digitale?. Si tratta di una saturazione
repentina che dà vita ad una distorsione elevatissima con presenza di molte
armoniche e quello che l?orecchio avverte è un breve rumore simile al rumore
bianco.

Ritornando al discorso
relativo
alla qualità del suono digitale si può affermare che quello che si
ottiene è un suono meglio definito e più dettagliato che qualche volta appare
alle orecchie dell?ascoltatore come freddo, privo di sentimento (anche in
questo caso, però, non dobbiamo pensare che questo costituisca un difetto a
priori perché esistono generi musicali che beneficiano di questo tipo di
sonorità). Nel paragrafo precedente
abbiamo visto che la sintesi sonora analogica e la sintesi sonora digitale sono
nate all?incirca nello stesso periodo (verso la fine degli anni 60 sono apparsi
i primi veri sintetizzatori analogici e sempre in quel periodo si cominciava ad
usare il calcolatore per produrre suoni usando tecniche numeriche).

Ciascuna delle due si è
affermata
sul mercato con tempi e modalità differenti. Gli strumenti di tipo
analogico hanno avuto un successo iniziale enorme (nonostante i costi
proibitivi), soprattutto perché la tecnologia relativa ai microprocessori ed il
mondo dell?informatica non erano ancora pronti per offrire un prodotto di
livello consumer. Oggi la tendenza si è
invertita ed il set-up della maggior parte dei musicisti contiene sempre più
elementi digitali e sempre meno elementi analogici. Questo per un motivo ben
preciso: la differenza dei costi. Mentre l?evoluzione del mondo
informatico ha consentito un drastico abbassamento dei prezzi di computer, dsp
e software, un identico andamento dei prezzi non ha caratterizzato il mercato
dei dispositivi audio analogici che sono tuttora notevolmente costosi. Il discorso sarebbe,
comunque, un pochino più complesso di come appare, perché i due mondi non si
escludono a vicenda.

Si deve tener conto di
differenti situazioni
; si pensi, per esempio, al gran numero di dispositivi
ibridi
. Tanti sintetizzatori hanno
delle sezioni digitali e delle sezioni analogiche (non è raro trovare
sintetizzatori con una sezione digitale dedicata alla sintesi delle onde sonore
di base e con una sezione filtri prettamente analogica). In genere dispositivi di
questo tipo tendono ad essere caratterizzati da costi simili a quelli dei
devices analogici puri; un po? per la presenza di componentistica analogica ed
un po? per motivazioni riconducibili a logiche di mercato. Inoltre non bisogna pensare
che ciascun musicista decida di adottare esclusivamente strumentazione di tipo
analogico o di tipo digitale. Il caso più frequente è
quello di un set-up contenente elementi appartenenti ad entrambe le tecnologie. Però la tendenza attuale è
quella di utilizzare sempre più il digitale e sempre meno l?analogico; sia per
il discorso relativo ai costi come anche per una questione di flessibilità e di
compattezza. Infatti, il digitale permette
di avere, dentro un solo elaboratore, svariati dispositivi come mixers,
registratori multitraccia, sintetizzatori di ogni tipo, bass lines, drum
machines, samplers ed ogni sorta di effetto sonoro (compressori, limiters,
riverberi, delay, etc.).

L?avvento del digitale ha
permesso
, quindi, ad un numero sempre maggiore di persone di accostarsi al
mondo dell?audio professionale. In conseguenza di questo
fatto sono nati nuovi generi musicali e nuove tecniche di registrazione,
composizione ed esecuzione. Ma sono venute alla luce
anche nuove esigenze; fra queste quella di cercare di riottenere, in ambito
digitale, delle sonorità di tipo analogico con software che, mediante l?uso di
varie tecniche di approssimazione (modelli fisici, multicampionamento, sistemi
a convoluzione tramite l?uso di risposte impulsive o, tecniche di
identificazione di sistemi) permettessero di ottenere una soddisfacente
emulazione di componentistica analogica esistente.

Sono così nate le emulazioni dei sintetizzatori più noti, di amplificatori da chitarra, di organi, di
distorsori e di tutta una serie di altri dispositivi tipici del mondo
dell?audio analogico. Naturalmente, quando si parla
di emulazioni, uno degli aspetti principali riguarda la bontà dell?emulazione
(che rimane sempre e comunque una approssimazione del modello originale). In questo caso possiamo
affermare che la crescente potenza di calcolo ha permesso, con il tempo, di
raffinare sempre di più i modelli matematici che stanno alla base di questo
tipo di software, permettendo di raggiungere livelli di emulazione notevoli. Non è scopo di questo
articolo discutere le implicazioni relative alla soddisfazione che una più o
meno buona emulazione possa dare ad un musicista (è comunque un discorso legato
alle necessità ed al gusto del singolo). Quella di dividere i
dispositivi audio fra analogici e digitali non è l?unica catalogazione che può
risultare utile per una migliore comprensione del lavoro esposto in questa
relazione.

Una differente catalogazione,
utile allo scopo, è quella di suddividere i devices in base al tipo di operazione
che compiono. In questo caso esistono quattro grandi categorie non
esclusive (alcuni dispositivi possono appartenere a più di una categoria):

  • Generatori di suono
    • Appartengono a questa
      categoria sia i sintetizzatori che i samplers.
    • I primi generano il suono
      usando qualunque tipo di sintesi audio (additiva, sottrattivi, FM, granulare,
      wavetable, etc.) mentre i samplers non fanno altro che suonare determinati
      campioni (magari variandone il pitch quando necessario).
  • Equalizzatori e filtri
    • Si tratta di dispositivi
      idealmente lineari. Ne fanno parte: passa-bassi,
      passa-alti, passa-banda, filtri notch, filtri risonanti, filtri wah wah e
      vocoders.
  • Effetti
    • Con questo termine si
      indicano tutti quei dispositivi che processano una sola parte del segnale; l?altra
      parte viene lasciata inalterata e le due vengono sommate insieme per creare
      l?effetto finale. Quanta parte debba essere
      processata e quanta debba rimanere inalterata è stabilito a priori tramite la
      manopola dry/wet che stabilisce il rapporto fra il segnale dry (quello che
      rimane inalterato) ed il segnale wet (quello che subisce il processamento).
    • Fanno parte di questa
      categoria tutti gli effetti che prevedono uno o più ritardi come riverbero,
      delay, phaser, flanger e chorus. Ma ne fanno parte anche quelli
      che modulano una o più caratteristiche del segnale come il pitch shifter
      (moltiplicatore di frequenza), il tremolo (modulatore periodico d?ampiezza), ed
      il vibrato (modulatore periodico del tono).
    • Infine troviamo in questa
      categoria i distorsori e gli exciter (effetti che aggiungono armoniche mediante
      il fenomeno della saturazione) oltre al wah wah ed al vocoder che già abbiamo
      trovato nella categoria dei filtri.
    • La maggior parte dei devices
      di questa categoria non è riproducibile mediante sistemi lineari.
  • Processori di segnale
    • Sono dispositivi che alterano
      tutto il segnale. Solitamente sono effetti che
      intervengono direttamente sulla dinamica modificandola in maniera
      irreversibile. Parliamo di compressore,
      de-esser, limiter, gate ed expander; ma possono rientrare in questa categoria
      anche il distorsore e l?exciter già trovati nella categoria degli effetti
      (rientrano anche in questa categoria perché sono frequenti i casi in cui
      vengono applicati a tutto il segnale d?ingresso).

Si conclude qui questa
carrellata storico-divulgativa, sicuramente non scevra da piccole inesattezze
(non sono uno storico e i miei metodi di indagine sono certamente carenti sotto
molti punti di vista). Spero comunque di aver
stuzzicato la fantasia del lettore e mi piace pensare che questo articolo possa
fungere da stimolo verso maggiori approfondimenti.

Vai alla prima parte

Federico Giuliani (lupino56k@infinito.it) è un ingegnere elettronico, insegnante di materie d?indirizzo elettronico nel triennio delle scuole secondarie di secondo grado e socio fondatore del gruppo ProjectInnovation.
Ha trovato nell?hd recording un punto di incontro tra lo studio, il lavoro ed il tempo libero. Il suo interesse nel settore è di tipo tecnico, più che artistico, e si focalizza principalmente nel campo del software audio.

Fa parte della comunità del forum di cubase.it dove, col nickname ?lupino?, dà la possibilità agli altri utenti di testare la propria capacità di tolleranza e pazienza.

[3] Si noti che
i primi programmi per sintetizzare musica in forma numerica (tramite, quindi,
l?elettronica digitale) sono comparsi quando ancora non si affermavano, a
livello commerciale, i primi strumenti elettronici di tipo analogico.