Che Ferdinando Romano sia uno dei musicisti italiani più creativi e intelligenti del nostro panorama è fuori discussione. Eletto miglior nuovo talento italiano del 2020 nel nostro Top Jazz, il contrabbassista fiorentino ha al proprio attivo album di squisita fattura seppur molto diversi tra loro, da «Totem» (il lavoro di esordio come leader pubblicato cinque anni fa e impreziosito dalla presenza dell’ospite speciale americano, il trombettista Ralph Alessi) a «Invisible Painters» (opera seconda, uscita nel 2023). Con il terzo progetto, «The Legends of Otranto» (GleAm Records/IRD) le cose cambiano. E questo sia a livello di formazione – insieme a Romano e ad Ermanno Baron alla batteria ci sono la pianista estone Kirke Karja e il virtuoso finlandese di fisarmonica Veli Kujala – sia a livello stilistico. Si passa dal jazz alla contemporanea, da momenti cameristici e passaggi sperimentali, da siparietti drum’n’bass a travolgenti cavalcate in odore di rock. L’ennesima dimostrazione – se mai ce ne fosse bisogno – delle qualità di Ferdinando, sia come compositore sia quale leader e organizzatore di gruppi. E Romano è anche molto attivo nell’ambito della ricerca legata all’intelligenza artificiale e alle sue possibili applicazioni nella pratica dell’improvvisazione jazzistica.
Ferdinando, da dove nasce il tuo interesse per il mondo dell’intelligenza artificiale?
Sto svolgendo un dottorato di ricerca presso il Conservatorio di Como, sotto la guida di Walter Prati e di Alessio Sabella, in collaborazione con l’Ircam (cioè il parigino Institut de recherche et coordination acoustique/musique creato da Pierre Boulez, n.d.r.) e altre realtà internazionali. Il progetto indaga le possibilità creative relative all’utilizzo dell’intelligenza artificiale nella performance improvvisata. Quest’attività di ricerca ha anche un risvolto pratico, che si declina al momento in un mio concerto in solo per contrabbasso, sintetizzatore modulare e laptop, attraverso cui controllo processi ed elaborazioni del suono con un sistema da me sviluppato in Max/MSP integrato con un sistema di IA sviluppato dall’Ircam (Somax2).
Che nome hai dato a questa live performance?
Si intitola Echoes of the Machine Mind 1.0. E, la notizia è di questi giorni, sono stato invitato a presentarlo e a suonarlo in giugno alla International Computer Music di Boston. Ho deciso di numerare il mio live, che al momento si trova alla versione 1.0 proprio perché è un progetto in continua evoluzione e questo è il suo primo e attuale allestimento. Tengo a precisare che l’improvvisazione è ogni volta diversa, anche se ho scritto una serie di strutture (che modifico e che modulo a seconda delle circostanze) che funzionano da cornice. Ogni struttura è divisa in quelli che io chiamo scenari; posso passare da uno all’altro anche cambiando l’ordine in modo estemporaneo e ognuno di essi ha un insieme di elementi mappati o di modifiche dei parametri all’interno della patch di Max.
E che cosa succede concretamente?
Succede che gli agenti di IA di Somax2 agiscono utilizzando linguaggi e materiale improvvisativo che è stato costruito sulla base di un insieme esterno di materiale musicale, detto corpus. Questo corpus viene costruito partendo da file midi e da file audio. A differenza di molti altri approcci generativi, il sistema non costruisce un modello che può anche essere indipendente dal materiale utilizzato per addestrarlo. Il modello viene costruito direttamente sui dati originali e fornisce un modo per navigare attraverso di esso in modo non lineare. L’IA quindi «ascolta» – se così si può dire – il suono dall’esterno e analizza determinati parametri (possono essere molteplici: per esempio altezza, dinamica, ambito armonico, onset, tecniche strumentali…). Quindi, attraverso i dati che raccoglie, genera una risposta coerente trovando connessioni tra quello che ascolta e il linguaggio (cioè il corpus) che ha appreso.
Nel mio caso io utilizzo l’IA per controllare in svariati momenti della performance voci diverse del sintetizzatore e gestirne parametri e modulazioni in tempo reale.
Qual è l’obiettivo che ti poni?
L’obiettivo alla base di questa mia performance è di raggiungere un certo livello di libertà e di non prevedibilità nell’esecuzione delle mie improvvisazioni con gli agenti. Posso ovviamente gestire i parametri attraverso i controller midi (un hands-on e un foot controller) e creare la struttura per l’improvvisazione in solo, ma sono anche in grado di divertirmi a suonare senza sapere che cosa suonerà l’agente dialogando con lui e portando la musica in una direzione piuttosto che in un’altra.
Che tipo di domande e di prospettive apre questo genere di ricerca per un improvvisatore come te?
La ricerca in questo ambito è un campo multidisciplinare che apre numerose domande. Parte di quelle con cui mi sto confrontando riguardano l’indagine legata a questi temi. Come può l’intelligenza artificiale permettere ai musicisti di esplorare spazi creativi (inserendo elementi di interesse e di novità nella performance)? In che modo e fino a che punto il performer umano è in grado di controllare il sistema? E come si può in questo circuito esprimere liberamente la propria identità artistica? E ancora: in quale maniera il ruolo del performer umano si ridefinisce?
E riguardo alla percezione degli ascoltatori?
Questa è un’altra questione interessante. Il pubblico potrebbe chiedersi se e come tale interazione aggiunga veramente qualcosa alla performance. E se questo si traduce effettivamente in qualcosa di interessante per gli ascoltatori rispetto alla performance tradizionale. In tal senso si apre la questione di far precedere i concerti da un colloquio o da una masterclass aperti, in cui si presenta al pubblico la tecnologia che sta per ascoltare, spiegando i processi che ci sono dietro. Un modo per dare alla gente una migliore percezione e comprensione di tutto quello che accade.