Secondo un dato rilasciato dall’esperto musicista e youtuber Benn Jordan, delle 560 migliori canzoni e scelte dello staff su Suno (una delle piattaforme di AI generativa citata in giudizio dall’industria musicale), 549 (98%) vengono monetizzate sui servizi di streaming.
Molti sono stati rilevati su Spotify dove risultano come artisti umani verificati. Una traccia mostrata da Benn ha 688.000 riproduzioni. Solo quella canzone ha portato via agli artisti umani circa 2.000 dollari dal pool di royalties di Spotify.
A giugno 2024 si è verificato un aumento del 15% dei brani caricati su Spotify rispetto all'anno precedente. L'incremento proviene soprattutto dai “musicisti indipendenti”. Secondo l’esperto, purtroppo, gran parte di questa è probabilmente musica AI.
L’allarme è serio e preoccupa il settore perché la grande opportunità offerta dalle tecnologie di intelligenza artificiale generativa rischia di agevolare il furto di contenuti musicali e la creazione di deep fake in competizione con il mercato legittimo.
A questo si associa anche la questione ancora non definita del Codice di buone pratiche dell’AI per scopi generali. Come definito dalla Commissione EU “le norme che disciplinano i modelli di IA per uso generale ai sensi della legge sull'IA entreranno in vigore nell'agosto 2025. Il codice di buone pratiche mira a facilitare la corretta attuazione di tali norme e svolgerà un ruolo cruciale nel guidare lo sviluppo e la diffusione futuri di modelli di IA generici affidabili e sicuri nell'UE”.
Gli aspetti chiave del codice comprendono dettagli sulla trasparenza e l'applicazione delle norme relative al diritto d'autore per i fornitori di modelli di IA per uso generale. In questo contesto è ora al centro degli incontri del tavolo degli stakeholder la seconda bozza del codice.
La bozza introduce misure soggettive (in molti casi solo la necessità di compiere “sforzi ragionevoli”), che forniscono meno chiarezza e certezza giuridica, rendendo al contempo più semplice per i fornitori di GPAI adottare poche misure significative per conformarsi alla legge sull’AI.
Soffermandosi sulle misure specifiche emergono aspetti controversi che rischiano di mettere a repentaglio la protezione dei contenuti.
• Misura 2.3: diluisce le misure di due diligence che devono essere adottate per verificare la conformità al diritto d'autore quando si utilizzano set di dati di terze parti per sviluppare i propri modelli. È importante che questi siano resi quanto più solidi possibile per evitare che i fornitori di IA possano ridurre le proprie responsabilità quando utilizzano contenuti di terze parti che potrebbero essere problematici/ottenuti illegalmente.
• Misura 2.4: attenua le misure che devono essere adottate per garantire che l'accesso ai contenuti protetti dal diritto d'autore utilizzati ai sensi dell'articolo 4 dell'eccezione TDM (text & data mining) della direttiva DSM (direttiva copyright) sia avvenuto legalmente (richiede solo misure ragionevoli e proporzionate per farlo). Dato che l’accesso legale è un requisito obbligatorio per avvalersi dell’eccezione di cui all’articolo 4, ciò rende la misura praticamente inutile, pur implicando che sia necessaria una conformità inferiore a quella richiesta dal diritto sostanziale.
• Misura 2.5: le misure relative ai siti web che dovrebbero essere esclusi dalla scansione perché contengono "contenuti pirata" sono ancora troppo limitate e dovrebbero essere ampliate.
• Misure 2.6 e 2.7: le misure relative al rispetto delle riserve sui diritti sono state ridotte in modo tale da rendere molto semplice il rispetto solo dei protocolli robots.txt e nessun'altra riserva, nonostante né la direttiva DSM né la direttiva AI La legge limita i mezzi con cui il titolare di un diritto può riservarsi i diritti su robots.txt. Si noti che, al contrario, nel progetto di codice di condotta si riconosce correttamente che i titolari dei diritti possono scegliere come riservare i propri diritti, ma ciò non supera le misure limitate che un fornitore dovrebbe adottare quando si tratta di rispettare le riserve sui diritti.
• Misura 2.9: le misure da adottare per ridurre il rischio di violazioni a valle dei risultati generati dall'IA sono state ridotte rispetto alla prima bozza e dovrebbero essere rese più solide.
• Misura 2.11: le misure affinché i fornitori di IA introducano un processo di reclamo in materia di copyright richiedono solo l'introduzione di un meccanismo per presentare reclami senza alcun riferimento alle misure che i fornitori di IA dovrebbero adottare per risolverli. Dovrebbe essere specificata (come minimo) una descrizione chiara dei passi concreti che i fornitori di GPAI dovrebbero intraprendere a seguito di un reclamo.
In generale esistono poi una serie di esclusioni irragionevoli per le PMI e gli attori a valle che modificano un modello di intelligenza artificiale preesistente che dovranno essere confutate con forza.
Da non sottovalutare inoltre il rischio che sull’AI Act si apra un contenzioso “politico” con l’amministrazione Trump, date le avvisaglie già intraviste su una contestazione dell’approccio regolatorio dell’EU che gli Stati Uniti e le aziende tech che sono già schierate con i nuovi vertici, sono sicuramente interessate a cavalcare.