Il 13 marzo 2024 è stata definitivamente approvata la regolamentazione sui sistemi di intelligenza artificiale (IA) in Europa e per la prima volta al mondo. Il testo è consolidato dopo una serie di trattative e compromessi tra le pressioni delle lobby tecnologiche e la tutela dei diritti umani.

Si tratta di un nuovo modo di legiferare, un sistema di soft law, perché in larga misura si interviene con delle raccomandazioni pressanti nelle quali si fatica a identificare obblighi precisi, con rare eccezioni, prevalentemente di carattere burocratico.

La redazione consiglia:
Buchi e «scappatoie» per la sorveglianza

I sistemi di intelligenza artificiale sono definiti come sistemi di machine-learning capaci di adattività per generare output come predizioni, contenuti, raccomandazioni che riguardano ambienti fisici e virtuali. Una definizione generica, ma che esclude i vecchi sistemi di IA basati su regole.

Si individuano livelli di rischio inaccettabile, alto, limitato o minimo. La regolazione vieta solo i sistemi a rischio inaccettabile, e non vincola prodotti a rischio minimo come sistemi di raccomandazione, filtri antispam, o i videogiochi, ai quali viene solo proposto di aderire a dei codici di condotta.

I sistemi inaccettabili riguardano il social scoring, l’esplicita volontà di manipolazione delle persone, l’uso di sistemi di riconoscimento biometrico individuale o la creazione di database sulla raccolta a strascico delle immagini dei volti presenti nei video delle telecamere di sorveglianza.

Per quanto riguarda i sistemi a rischio limitato come quelli di IA generativa che producono contenuti sintetici, si instaurano obblighi di trasparenza per garantire di essere informati quando interagiamo con un chatbot o di identificare contenuti sintetici con un meccanismo riconoscibile dalla macchina – una procedura che deve ancora essere inventata (Art. 52).

La pericolosità dei sistemi generativi aumenta se superano 1015 floating point operations (FLOPs), cioè si introduce una misura della richiesta di sforzo computazionale nell’addestramento, oltre la quale scatterebbero ulteriori controlli, ma non è esplicitato il motivo di questo limite.

Sono previste alcune eccezioni rispetto all’uso di sistemi inaccettabili, aspetto piuttosto inquietante (Annex III).

Se il divieto di identificazione biometrica in tempo reale a distanza è proibito perché non rispetta i diritti umani, come è possibile recedere dal divieto per ragioni di sicurezza nazionale, terrorismo o altri reati che prevedono una pena massima almeno di quattro anni, nei casi di urgenza anche senza l’autorizzazione alla deroga?

Il divieto di riconoscimento delle emozioni – una pratica la cui scientificità è indimostrata, come viene segnalato anche nei lavori preparatori – riguarda la scuola e il lavoro, ma non ragioni di salute e sicurezza, ed è consentita per esempio nel contrasto alla migrazione, dove sono utilizzabili molti dei sistemi vietati altrove, come se i richiedenti asilo o le altre soggettività marginali costituissero uno spazio di sperimentazione, un terreno liminale. Una deroga al principio di uguaglianza tra le persone, particolarmente odiosa sui migranti.

Il centro dello sforzo legislativo riguarda i sistemi ad alto rischio (Art. 6) che, pur non essendo proibiti, richiedono una serie di adempimenti per giustificare la propria aderenza agli standard, gran parte dei quali riguardano la sfera burocratica.

Non sono previsti controlli di terze parti, se non su base volontaria. I produttori o i soggetti utilizzatori (deployer) dei sistemi hanno la facoltà di dichiarare che i propri sistemi non siano ad alto rischio e, attraverso un processo tutto documentale, sottrarsi agli obblighi (Art.6.2b).

Sono, inoltre, esclusi da vincoli e divieti i sistemi opensource che non prevedano una commercializzazione dei propri servizi, e quelli di ricerca e sviluppo scientifico, oltre a consentire una serie di facilitazioni per la sperimentazione in sandbox predisposte per le piccole imprese.

Sarà difficile riconoscere la distinzione tra i sistemi di ricerca e gli altri nel settore dell’IA. Tutti nascono in un ambiente di ricerca, come ci hanno dimostrato diversi scandali sul trattamento dei dati, a cominciare da Cambridge Analytica.

La redazione consiglia:
Due facce della stessa medaglia: Big Tech e industria militare

Una legislazione complessa che indubbiamente segna una prima volta rispetto alla tutela dei diritti dei cittadini verso i sistemi di intelligenza artificiale.

Favorirà le grandi imprese nell’accreditare strumenti pericolosi per la tenuta democratica, creando una crisi per i piccoli attori, senza difendere davvero le persone reali dal potenziale di iniquità e ingiustizia di decisioni predittive che seguono metodi di addestramento sostanzialmente oscuri e inspiegabili, i cui obiettivi e criteri di ottimizzazione restano segreti.

Molto dipenderà da come verrà scritta l’ampia legislazione secondaria prevista, da come la normativa verrà recepita dagli stati e dall’operato dell’AI office e delle autorità nazionali.