Il Parlamento approva una norma che dovrà essere ora oggetto di trattativa con gli
Stati membri .

Il Parlamento europeo ha approvato le modifiche alla bozza sulle norme per regolare l’intelligenza artificiale proposte dalla Commissione europea. Il regolamento è stato approvato 499 voti a favore, 28 contrari e 93 astenuti. Il sì dei deputati europei apre la strada a negoziati con gli Stati membri per finalizzare questo testo che mira a limitare i rischi dei sistemi come ChatGPT.
Il Parlamento europeo ha richiesto nuovi divieti, come quello dei sistemi automatici di riconoscimento facciale nei luoghi pubblici. La Commissione vorrebbe autorizzarne l’uso da parte delle forze dell’ordine nella lotta contro la criminalità e il terrorismo. Questo argomento dovrebbe alimentare i dibattiti con gli Stati membri che si oppongono al divieto di questa tecnologia, la cui applicazione è piuttosto controversa.
L’AI Act, come la legge è stata battezzata, cercherà di stabilire uno standard globale per una tecnologia utilizzata in tutti i settori: dalle fabbriche automatizzate alle auto a guida autonoma ai chatbot come ChatGpt. I legislatori dovranno ora definire i dettagli con i Paesi dell’UE prima che la bozza di regole diventi legge.
In dettaglio, le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale, cioè per classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali.
I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’IA. Tra questi: l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

15 giugno 2023