Musica, intelligenza artificiale e copyright: cosa sta accadendo

Foto di Possessed Photography su Unsplash

Ci sono principalmente due approcci dell’industria musicale all’intelligenza artificiale (IA). Uno è quello di Giles Martin, figlio di Sir George Martin, produttore dei Beatles. L’anno scorso, per remixare l’album “Revolver” del 1966, ha utilizzato l’intelligenza artificiale per apprendere il suono degli strumenti di ciascun membro della band (ad esempio, la chitarra di John Lennon) da un master tape mono, in modo da poterli separare e decodificare. in stereo. Il risultato è stato fantastico!

Ma anche l’altro approccio non è male: è la risposta di Nick Cave, un cantautore australiano lunatico, dopo aver visto i testi scritti nel suo stile da ChatGPT, uno strumento di intelligenza artificiale sviluppato da OpenAI, che in passato abbiamo già visto. “Questa canzone fa schifo”, ha scritto. “Scrivere una buona canzone non è nascondersi, o replicare, o sintetizzare, bensì è il contrario. Questo è un atto di autoomicidio che distrugge tutto ciò che si è cercato di produrre in passato”. È improbabile che il signor Cave si sia impressionato dall’ultima versione dell’algoritmo alla base di ChatGPT, soprannominato GPT-4, che OpenAI ha presentato il 14 marzo, mentre il signor Martin potrebbe averlo trovarlo utile. Michael Nash, chief digital officer di Universal Music Group, l’etichetta musicale più grande al mondo, cita i loro esempi come prova dell’entusiasmo e della paura per l’intelligenza artificiale dietro le app di creazione di contenuti, come ChatGPT (per il testo) o Stable Diffusion (per le immagini).

Le nuove tecnologie potrebbero incrementare il processo creativo o anche distruggerlo, eppure, per la musica registrata in generale, l’arrivo dei bot fa venire in mente un altro grande evento nella storia della musica digitale: la rapida ascesa e caduta di Napster, una piattaforma per la condivisione di canzoni principalmente piratate all’inizio del millennio. Napster è stato, alla fine, abbattuto dalla legge sul copyright.

Per i fornitori di quei bot che oggi utilizzano intelligenza di facciale e sono accusati di calpestare la proprietà intellettuale (IP), il signor Nash ha un semplice messaggio che suona, detto da un veterano dell’industria musicale dell’era Napster, come una minaccia: “Non schierarti sul mercato e chiedere perdono. Questo è l’approccio di Napster”.

Il problema che ora si sta aprendo non è costituito dalle parodie create dall’intelligenza artificiale di Mr Cave o da finti sonetti shakespeariani creati in dieci secondi… Si tratta di tutti quelle miriadi di dati protetti da copyright che i robot stanno sottraendo mentre vengono addestrati a creare contenuti umani. Quelle informazioni provengono da ogni dove: feed dei social media, ricerche su Internet, biblioteche digitali, televisione, radio, banche, analisi statistiche…

Spesso si sostiene che i modelli di intelligenza artificiale saccheggino i database senza permesso. I responsabili del materiale originale si lamentano che il loro lavoro venga recuperato senza consenso, credito o compenso. In breve, alcune piattaforme di intelligenza artificiale potrebbero fare con altri media ciò che Napster ha fatto con le canzoni, ignorando del tutto il copyright. Ed è per questo che tantissime cause legali stanno cominciando a riempire gli uffici di tutti i giudici nel mondo.

Si sta creando un campo minato legale con implicazioni che si estendono oltre le industrie creative, arrivando a qualsiasi attività in cui l’apprendimento automatico possa svolgere un ruolo, come le auto a guida autonoma, la diagnostica medica, la robotica di fabbrica e la gestione del rischio assicurativo. L’Unione Europea ha emanato in passato una direttiva sul diritto d’autore che fa riferimento al data mining (il fenomeno di recupero di dati senza limiti) e che fu scritta prima del recente boom dei bot.

L’America non ha una casistica specifica per l’IA generativa e gli esperti nel settore hanno teorie contrastanti sull’ammissibilità o meno del data mining senza licenze, secondo la dottrina del “fair use”, che tenterò di spiegare di seguito.

In America, l’uso di opere protette da copyright è considerato equo quando serve a uno scopo sociale prezioso, il materiale di partenza è trasformato dall’originale e non influenzare il mercato principale dei titolari di diritti d’autore. I critici sostengono che le IA non trasformano, bensì sfruttano la totalità dei database che estraggono, affermando che le aziende che acquisiscono dati con l’apprendimento automatico abusano del fair use per “gratuire” il lavoro delle persone. E sostengono che ciò minacci i mezzi di sussistenza dei creatori, così come la società in generale se l’IA promuove la sorveglianza di massa e la diffusione della disinformazione.

Ma è anche vero che maggiore è l’accesso ai “dati di addestramento”, migliore sarà l’IA. E che, senza tale accesso, potrebbe non esserci alcuna IA. In altre parole, l’industria potrebbe morire nella sua infanzia. Nash afferma che “le industrie creative dovrebbero prendere rapidamente posizione per garantire che la produzione degli artisti sia autorizzata e utilizzata in modo etico nella formazione dei modelli di intelligenza artificiale”. Esorta le aziende di intelligenza artificiale a “documentare e divulgare” le loro fonti. Ma, riconosce, è un equilibrio delicato. Siamo davanti a una delle questioni legali più importanti del secolo: “La legge sul copyright consentirà ai robot di imparare?”.