La crescita degli strumenti di intelligenza artificiale applicati alla produzione musicale sta imponendo una trasformazione concreta nei processi creativi, spostando l’asse dall’esecuzione alla progettazione dell’idea sonora. In questo scenario si inserisce Synthalia, il primo contest interamente dedicato alla musica AI assisted, che nel luglio 2026 vedrà la sua fase finale e che si propone come osservatorio privilegiato per analizzare l’evoluzione del rapporto tra creatività umana e tecnologie generative.
Gli intervistati di questo confronto rappresentano una parte significativa della giuria del progetto e provengono da esperienze diverse, ma convergenti nel lavoro di ascolto e valutazione dei finalisti. Il loro ruolo non si limita alla selezione dei brani, ma implica un’osservazione diretta delle modalità con cui l’intelligenza artificiale viene integrata nel processo compositivo: dalla scrittura dei testi alla costruzione delle strutture musicali, fino alla definizione dell’identità sonora complessiva.
Il materiale in gara ha evidenziato approcci eterogenei, nei quali l’AI può assumere funzioni molto diverse: strumento di supporto, estensione creativa o, in alcuni casi, elemento centrale del processo produttivo. Proprio questa varietà ha reso il lavoro della giuria particolarmente complesso, mettendo in luce la necessità di criteri di valutazione che vadano oltre la sola qualità tecnica o la riconoscibilità del suono.
Le riflessioni raccolte in questa intervista si concentrano su tre assi principali: la capacità di distinguere tra utilizzo superficiale e integrazione consapevole dell’AI, il peso dell’originalità linguistica rispetto alla solidità strutturale dei brani e l’eventuale emergere di un’estetica condivisa nella musica generata o assistita da sistemi intelligenti.
Ne emerge un quadro ancora in definizione, in cui la tecnologia non appare come sostituto dell’autore, ma come dispositivo che ne amplifica possibilità e limiti. Synthalia si colloca proprio in questo punto di intersezione, offrendo uno spazio di confronto critico su cosa significhi oggi “scrivere musica” quando la scrittura stessa è mediata da sistemi non umani.
In fase di selezione, quali aspetti ti hanno permesso di distinguere un semplice utilizzo dell’intelligenza artificiale da una vera integrazione artistica tra uomo e tecnologia?
Gigi & Claudio:
Essendo prima di tutto un musicista (suono a orecchio dal 1986) per me è sempre stato facile riconoscere un vero musicista da qualcuno che si affida all’AI o agli strumenti VST. Tuttavia posso dire con certezza che, mese dopo mese, distinguere uno strumento reale da uno simulato sta diventando sempre più difficile, anche quando si tratta di VST molto avanzati. Naturalmente è quasi impercettibile se parliamo di musica fatta con sintetizzatori o lead: in questo contesto è diventato impossibile comprendere cosa è AI o cosa non lo è.
Tony Tomasicchio:
Ciò che emerge subito all’ascolto è la qualità della produzione: anche in un contesto di home recording si percepisce chiaramente quando un lavoro è curato nei dettagli. Un altro elemento distintivo è la presenza della mano umana, soprattutto nella struttura del brano, nella costruzione dei riff e nell’uso di accordi meno convenzionali. Inoltre oggi la differenza si nota molto anche nella scelta e nell’utilizzo degli strumenti: una voce umana resta ancora facilmente riconoscibile rispetto a una generata, ed è proprio questa interazione tra umano e tecnologia a fare la vera differenza artistica.
Erika Buzzo:
Il testo è il primo indicatore. Gli LLM appiattiscono, e in italiano si sente ancora di più: non sono strumenti nati per scrivere canzoni e molti testi erano palesemente AI driven e strutturalmente sbagliati. Anche a livello compositivo la differenza era netta: chi ha una cultura musicale ampia, chi ascolta generi diversi, ha prodotto qualcosa di originale, ibrido, inaspettato. Chi aveva un ascolto limitato ha prodotto qualcosa di piatto, anche se tecnicamente corretto. L’AI amplifica quello che porti. Se porti poco, restituisce poco.
Palchi:
Sicuramente il testo è la parte in cui l’anima di ognuno di noi esce fuori. Si evince quando una persona ci mette del sentimento in quello che scrive e se la musica ricercata e creata rispecchia poi quel testo, quell’attitudine e quell’emozione. Dal punto di vista musicale, alcuni brani erano curati veramente bene nei dettagli, anche nel mix e nel master; questo dimostra un intervento e un dialogo tra macchina e uomo al fine di ottenere un risultato professionale, difficile da riconoscere come semplice “AI”.
Davanti a una rosa così ampia di candidature, quanto ha contato l’originalità del linguaggio rispetto alla solidità della struttura musicale?
Gigi & Claudio:
Per quanto mi riguarda, la prima cosa che deve colpirmi è il testo: le parole scelte, il modo in cui scorrono e come le rime si incastrano tra i versi. Solo dopo passo ad ascoltare la base e a valutare come è strutturata.
Tony Tomasicchio:
L’originalità è stata un fattore determinante. Di fronte a un’ampia gamma di possibilità offerte dall’intelligenza artificiale, ciò che davvero distingue un progetto è la capacità di uscire dai cliché e proporre idee innovative. La libertà creativa è praticamente illimitata, ma è proprio l’uso consapevole e personale di questi strumenti che permette di costruire un’identità artistica forte.
Erika Buzzo:
Scrivere una canzone ha delle regole. Non rigide, ma reali. E lì si è visto chi aveva esperienza, orecchio, o anche solo attenzione a come funziona una struttura musicale. Chi non le conosce spesso non sa nemmeno di sbagliarle. Sull’originalità del linguaggio il fattore determinante è stato uno solo: quanto quella persona vive la musica in modo trasversale.
Palchi:
Il linguaggio è ciò che ci rende più umani. Tuttavia, quando la musica si carica di emotività e di ricercatezza nei dettagli, l’AI diventa un mezzo e non il mezzo. Alcuni brani sono stati toccanti, altri risultavano banali. La selezione è avvenuta proprio cercando qualcosa che non fosse banale né nel testo né nella musica.
Hai percepito delle tendenze ricorrenti tra i finalisti, sia a livello sonoro sia tematico, che potrebbero definire una “prima estetica” della musica generata con AI?
Gigi & Claudio:
Assolutamente no. Ogni finalista ha il proprio stile, il proprio genere e un tocco personale che lo distingue dagli altri. Ognuno porta una propria identità musicale.
Nel mio caso, le mie creazioni nascono da un mix di basi e riff realizzati con strumenti reali, uniti all’AI che mi aiuta a colmare i miei gap. Senza l’AI potrei produrre solo melodie, non vere e proprie canzoni complete. Oggi invece posso creare liberamente, senza dipendere da nessuno.
Tony Tomasicchio:
Sì, alcune tendenze ricorrenti sono emerse. In particolare tra i finalisti si è distinta la capacità di trovare un equilibrio tra innovazione, qualità sonora e coerenza tematica. Sta iniziando a delinearsi una prima estetica della musica generata con AI, in cui la tecnologia non è fine a sé stessa, ma amplifica un’idea artistica precisa.
Erika Buzzo:
Con SUNO c’è una tendenza al suono compresso, molto post prodotto, ormai firma involontaria di questa fase. I lavori più interessanti rompevano quella pulizia con elementi irregolari e personali: testi scritti bene, linee vocali interessanti. Il punto è proprio questo: l’unione tra AI e human.
Palchi:
La musica AI deve ancora fare passi avanti, ma può creare sbocchi interessanti e ridare linfa alla musica suonata. Ad oggi i brani hanno elementi riconoscibili: testi, voci e sonorità troppo patinate. Alcuni hanno però trasformato questi limiti in punti di forza, dimostrando un uso creativo e consapevole dello strumento.




