Storia dell'articolo
Chiudi

Questo articolo è stato pubblicato il 30 marzo 2014 alle ore 15:06.
L'ultima modifica è del 30 marzo 2014 alle ore 15:07.

My24

Ascoltando su YouTube gli eleganti arpeggi al piano eseguiti da una mano non umana in «From darkness, light», primo controverso Lp realizzato da un software a cui il suo creatore David Cope ha assegnato un nome suadente, Emily Howell, a un certo punto l'occhio cade su un commento: «I robot diventeranno umani, o gli umani diventeranno robot?».

Pur potendolo attribuire ad altri campi della produzione umana, in realtà il commento preoccupato di Alex Bionigen dice bene come la corsa della tecnologia abbia sconvolto profondamente anche l'orizzonte della musica, con annessa una cascata di paradossi e contraddizioni. La più eclatante sta nel fatto che, dai suoi albori nei Cinquanta, la musica elettronica è stata un'avventura eccezionale soprattutto all'inizio, quando gruppi di pionieri del suono elettronico gareggiavano a colpi di invenzioni per riuscire a trovare nuove sonorità sfidando l'acustica e avventurandosi in campi innovativi, come la cibernetica e la programmazione.

Parliamo di precursori del calibro di Max Mathews, che per primo ha creato una serie di software per far sì che l'"elaboratore" producesse e controllasse il suono, nella serie Music I-V. Oppure di John Crowning, compositore e percussionista, inventore della modulazione di frequenza (Fm), tecnica poi applicata dai brand nei primi sintetizzatori commerciali nei Settanta.

In tempi in cui i vecchi computeroni non si potevano tenere in uno studio domestico, ecco che nascevano centri specializzati all'avanguardia, e qui l'Italia era in primissima fila, come dice Nicola Moro, Ph.D. e supervisor presso il Music Department della Cambridge University (Uk): «Cinquantotto anni fa nasceva l'Istituto di Fonologia della Rai grazie a Luciano Berio e Bruno Maderna, due giganti della musica italiana del Ventesimo secolo: per qualche anno Milano fu il centro mondiale della musica elettronica. Dopo decenni il modo di modellare e creare il suono è cambiato pochissimo.

Se ascoltiamo gli ultimi tre minuti di Visage (1961) di Berio, ritroviamo un sound design che potrebbe benissimo essere montato sulle immagini di Gravity di Alfonso Cuaron». Per Moro ciò è possibile per la sconcertante rapidità dei progressi tecnologici: «Attualmente per "fare" musica elettronica abbiamo bisogno di tre cose: un registratore (di qualunque tipo, digitale o non), qualche effetto (echi, modulatori ad anello, filtri passanti eccetera) e dei generatori di suono (oscillatori, sintetizzatori a modulazione di frequenza eccetera). Oggi il processo è solo più veloce e più conveniente, visto che i tre moduli sono combinati nel pc moderno».

In sostanza, le cose sono talmente spinte che chiunque con una semplice piattaforma crowdsourcing come "Computer Orchestra" può comporre e dirigere un'orchestra personale, caricando sull'interfaccia tante tracce musicali a piacere, assegnandogli un posto e un tempo prestabiliti, e poi azionarle solo con dei movimenti del corpo. La cyber-orchestra però radicalizza il dubbio sull'effettiva utilità residuale dei musicisti, spiega Massimo Marchi, compositore e docente di musica elettronica presso vari conservatori italiani: «Con la tecnologia che permette tutto e il suo contrario forse stanno mancando le idee creative.

Parlando da musicista, una volta gli strumenti musicali erano perfezionati nel corso di secoli, e chi li suonava metteva a punto la tecnica in anni e anni di studio; lo strumento era sempre quello e una volta acquisita la manualità era fatta: il grosso del problema con gli strumenti elettronici e il suono digitale, invece, è che manca una "standardizzazione della superficie di controllo"; per esempio nella liuteria elettronica il musicista deve diventare un programmatore, solo così si possono ottenere i risultati migliori». Marchi si trova d'accordo nel definire angusto l'orizzonte commerciale dei nuovi strumenti, per quanto la sperimentazione proliferi grazie al fenomeno startup: «L'altro problema è come suonare il computer: i primi sintetizzatori erano mutuati dal pianoforte e questo comportava svantaggi perché la tastiera limitava le possibilità creative, ti costringeva a pensare in una logica che l'elettronica voleva superare. Adesso però è difficile trovare una superficie elettronica totalmente controllabile, il rischio è che i nuovi strumenti rimangano confinati in una nicchia, ognuno con la sua "superficie" a scapito di uno standard».

Alphasphere ne è l'esempio perfetto: è un fantascientifico strumento musicale digitale, ma anche un progetto di design vincitore al Guthman Competitions Award 2014, che grazie a 48 tasti consente di "scolpire" il suono come una scultura, innescando modalità creative finora sconosciute, però se non lo prende una major rischia di non sfondare mai. Tanto più che la musica digitale sta mischiandosi alle altre arti, e per questo servono non solo strumenti ma professionisti in grado di modulare ambienti sonori di nuova concezione: l'ultimo spettacolo di Luca Ronconi al Piccolo Teatro, «Celestina», si è avvalso della tecnologia Wavefields Synthesis realizzata dalla Sonic Emotion di Zurigo e importata dalle aziende italiane 3D Sound Image e Agon in collaborazione con Hubert Westkemper, docente berlinese di Sound Design all'Accademia di Brera. In pratica, una rivoluzione rispetto alle attuali modalità di diffusione del suono: la nuova tecnica genera fisicamente un campo sonoro indipendente dalle caratteristiche fisiche dello spazio e permette agli ascoltatori di muoversi liberamente al suo interno, localizzando voci, strumenti e altri suoni a varie distanze e in movimento, come fossero reali.

Commenta la notizia

Shopping24

Dai nostri archivi