Regole su intelligenza artificiale: le differenza tra Ue e Usa

6 novembre 2023

Mentre in Europa proseguono i negoziati del trilogo per chiudere la partita sul regolamento AI Act prima della fine della legislatura, emergono alcune novità a livello internazionale, l'ordine esecutivo firmato dal Presidente Joe Biden delinea la posizione politica e strategica degli Stati Uniti sulla creazione, diffusione e utilizzo dei modelli di intelligenza artificiale.

Esaminiamo e mettiamo a confronto i due approcci allo sviluppo dell’intelligenza artificiale.

L’executive order Usa a confronto con l’AI Act

Tutto questo mentre a Washington il Presidente Biden rendeva noto l' Executive Order sull’Intelligenza Artificiale.

La prima cosa che vale la pena di analizzare e comprendere è il diverso approccio tra USA ed Europa sul tema.

La proposta di legge sull’IA in discussione in Europa adotta un approccio basato sul rischio, ma definisce le applicazioni IA ad alto rischio in modo più ristretto.

Al contrario, l’approccio statunitense adotta un approccio più completo, che comprende una gamma più ampia di applicazioni di intelligenza artificiale, ma manca di un’attenzione specifica all’alto rischio presente nella proposta dell’UE.

L’aspetto legislativo 

Per quanto attiene all’aspetto legislativo l’UE segue un approccio orientato alla conformità, che prevede una valutazione di conformità obbligatoria e un processo di approvazione per l’IA ad alto rischio. In particolare, impone restrizioni rigorose su alcuni usi dell’intelligenza artificiale, come la classificazione sociale e il riconoscimento facciale.

Nell’Executive Order USA si fa affidamento principalmente sulla collaborazione volontaria con le autorità governative, unita all’enfasi sullo sviluppo di standard di sicurezza dell’IA. L’obiettivo è garantire la sicurezza, la protezione e l’affidabilità dei sistemi di intelligenza artificiale senza divieti specifici su applicazioni come la classificazione sociale o il riconoscimento facciale.

Ricerca e sviluppo

Sulla ricerca e sviluppo l’AI Act dell’UE assume una posizione attribuendo una maggiore enfasi alla conformità normativa.

Nel provvedimento governativo USA si sottolinea invece l’importanza della ricerca e dello sviluppo dei talenti, promuovendo attivamente l’innovazione e la ricerca sull’intelligenza artificiale in vari settori, come ad esempio la sanità e il cambiamento climatico.

Privacy e dati

Un altro tema sul quale le posizioni divergono è quello delle privacy e dei dati.

La legge UE sull’intelligenza artificiale si concentra sulla salvaguardia dei diritti fondamentali, inclusa la privacy, e stabilisce chiari divieti sulle pratiche di intelligenza artificiale intrusive e discriminatorie, basandosi specificamente sul GDPR.

L’approccio statunitense punta alla salvaguardia della privacy degli americani incoraggiando il Congresso ad approvare una legislazione sulla privacy dei dati e la formulazione di standard per il rilevamento dei contenuti generati dall’intelligenza artificiale.

Proprietà intellettuale e copyright

Anche sul tema della proprietà intellettuale e soprattutto del copyright l’executive order americano resta abbastanza vago e blando, rinviando alle autorità preposte alcune delle questioni inerenti la protezione dei diritti di proprietà intellettuale e dei potenziali abusi. A differenza dell’AI Act che, pur non facendo espressamente riferimento al copyright, prevede, all’art.28(b) alcune regole di trasparenza per i modelli di base che devono poi essere lette in congiunzione con gli articoli 3 e 4 della Direttiva Copyright.

I principi guida internazionali del G7

Intanto, i leader del G7 hanno approvato i principi guida internazionali sull’intelligenza artificiale e un Codice di Condotta volontario per gli sviluppatori di intelligenza artificiale.

Come è noto, il quadro politico globale del processo di Hiroshima dell’AI è costituito da quattro pilastri:

  • analisi dei rischi, delle sfide e delle opportunità prioritari dell’intelligenza artificiale generativa,
  • i principi guida internazionali del processo di Hiroshima per tutti gli attori dell’IA nell’ecosistema dell’IA,
  • il Codice di condotta internazionale del processo di Hiroshima per le organizzazioni che sviluppano sistemi di IA avanzati,
  • cooperazione basata su progetti a sostegno dello sviluppo di strumenti e migliori pratiche di intelligenza artificiale responsabile.

I principi includono l’implementazione di misure adeguate di immissione dei dati e di protezione dei dati personali e della proprietà intellettuale. Le organizzazioni sono incoraggiate ad adottare misure adeguate a gestire la qualità dei dati, compresi i dati di formazione e la raccolta dei dati, per mitigare i pregiudizi dannosi. Secondo questi principi, dovrebbe essere supportata anche un’adeguata trasparenza dei set di dati sulla formazione e le organizzazioni dovrebbero rispettare i quadri giuridici applicabili.

I principi guida costituiranno una base di lavoro per le future attività sul fronte dell’AI portate avanti a livello OCSE.

Non va inoltre dimenticato il fatto che la prossima presidenza di turno del G7 sarà italiana e lo stesso Presidente del Consiglio Meloni ha preannunciato che i temi legati all’intelligenza artificiale saranno al centro dei lavori.

Conclusioni

In conclusione, come ampiamente previsto, nell’approccio all’AI generativa si intuisce subito come gli Stati Uniti cerchino di evitare una regolamentazione preventiva in tema di protezione dei diritti preferendo un approccio che favorisca lo sviluppo delle piatteforme contando su una autoregolamentazione del mercato (licenze) ed eventualmente di decisioni giudiziarie in materia, mentre in EU l’aspetto riguardante i contenuti utilizzati per addestrare le piattaforme è invece un elemento determinante e molto sentito.