Con il termine AI ACT si fa riferimento alla procedura di regolamentazione dell’intelligenza artificiale attualmente in fase di completamento da parte dell’Unione Europea. Il 14 giugno 2023, nel corso della Plenaria Strasburgo, il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull’Intelligenza Artificiale (AI) con 499 voti a favore, 28 contrari e 93 astensioni. E’ così il processo di confronto con Commissione Europea e Consiglio Europeo al fine di giungere al testo di legge definitivo. Le norme votate dal Parlamento Europeo hanno l’obiettivo di garantire che l’IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’UE, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale. Si tratta di un processo che vede l’Europa in posizione decisamente avanzata rispetto agli altri paesi e alle altre istituzioni mondiali che sino ad ora hanno lanciato appelli o fatto da cassa di risonanza alle dichiarazioni più o meno allarmate di esperti, intellettuali e operatori della intelligenza artificiale.
Il testo approvato riprende le deliberazioni delle commissioni Commercio Interno e Giustizia approvate a maggio 2023 e segue un approccio basato sul rischio stabilendo obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l’IA può generare. Sono vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). Sono inoltre vietate le seguenti pratiche:
- l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
- l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
- i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
- i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione;
- l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Si veda anche l’intervista al relatore al Parlamento Europeo Brando Benifei