Ai Act, le difficoltà di trovare delle regole in uno scenario in rapida evoluzione

AIact_intelligenza artificiale europa
Le nuove regole UE sull'intelligenza artificiale riguardano limiti nella biometria, aggiornamenti sul copyright e requisiti di trasparenza. L’obiettivo è contrastare gli abusi e proteggere i diritti

L'Ai Act, la proposta di normativa che si sta discutendo in Europa e che mira a regolamentare l'utilizzo dell'intelligenza artificiale ha concluso la fase preliminare, a giudicare dalle notizie che sono trapelate nei giorni scorsi. Molto probabilmente non entrerà in pieno vigore a breve, ipotizziamo un 2026, ma sappiamo che, concluse le trattative, si è arrivati a una bozza di testo condiviso e, in attesa di conoscerlo nella sua forma definitiva, proviamo a concentrarci su tre elementi fondanti di questo lavoro: biometrica facciale, copyright e trasparenza.

Proibizione della biometrica facciale

Sono vietati specifici usi dell'Ai, come la categorizzazione biometrica basata su caratteristiche sensibili e la raccolta indiscriminata di dati per database di riconoscimento facciale. L'uso di identificazione biometrica remota da parte delle forze dell'ordine è regolamentato ma non completamente proibito, limitandone l'uso facciale a circostanze specifiche, come reati gravi, e solo con autorizzazione giudiziaria. Se così fosse, si consegnerebbe l’applicabilità a future leggi nazionali e alla loro interpretazione.

La gestione del copyright del materiale utilizzato

Le Ai usano strumenti vecchi e nuovi per rielaborare contenuti esistenti. Invece di ripensare in toto al copyright, si pensa di individuare e poi limitare le capacità dell'Ai di rielaborare contenuti protetti, creando la necessità di aggiornare la legislazione sul copyright. Ma aggiornare o aggirare?

La trasparenza dei modelli Ai

Il regolamento imporrà obblighi di trasparenza e sicurezza per i modelli Ai ad alto rischio e di uso generale. Forse questa è la maggior velleità del legislatore europeo: l’Ai analizza dati secondo approcci non conoscibili dall’esterno, per cui richiedere che l’azione sia conoscibile limiterebbe fortemente la sua utilità. Ma poiché gli umanisti devono aver fatto il possibile per proteggere i diritti umani (sulla carta), si chiedono oggi garanzie che nel 2026, quando (forse) saranno applicate, troveranno intelligenze artificiali completamente diverse da quelle sulle quali anni prima è stata impostata la regolamentazione.

Certamente, per contestualizzare la nuova regolamentazione bisognerebbe sapere quali e quante siano queste intelligenze artificiali europee e quale rilevanza abbiano o avranno in un mercato dominato da Usa e Cina, che ovviamente "saranno felici" di qualsiasi nuova regola che costi all’Europa tempo e denaro.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome