INTELLIGENZA ARTIFICIALE, CRIPTOECONOMY, NFT VERSO UNA REGOLAMENTAZIONE EUROPEA

Home 9 Materie 9 Diritto dell'Unione Europea 9 INTELLIGENZA ARTIFICIALE, CRIPTOECONOMY, NFT VERSO UNA REGOLAMENTAZIONE EUROPEA
Share

Avv. Emmanuele Serlenga

Si deve elaborare un altro genere di Umanesimo, non alternativo o nemico della tecnica, ma in grado di integrarsi con essa e di utilizzarla al meglio, comprendendone le finalità o assegnandole finalità con maggiore saggezza”.

Remo BODEI, Dominio e sottomissione. Schiavi, animali, macchine, intelligenza artificiale”, Il Mulino, Bologna, 2019

 

1. Introduzione

Come noto, uno degli argomenti e degli interrogativi di maggiore attualità è come il legislatore debba porsi innanzi ai fenomeni dell’intelligenza artificiale, della cryptoeconomy e dei Non fungible token (NFT) sviluppati dalle recenti innovazioni tecnologiche.

L’Unione Europea all’uopo ha intrapreso da alcuni anni un cammino finalizzato alla difficile opera di regolamentazione della materia, sempre mantenendo come faro la preoccupazione da un lato di non intralciare lo sviluppo tecnologico e dall’altro di consentire al  consumatore di mantenere  la fiducia nel mercato.

 

2. ORGANI ED ATTI LEGISLATIVI DELL’UNIONE EUROPEA

Preliminarmente,  merita compiere un breve excursus circa gli organi e gli atti a mezzo dei quali  l’Unione Europea esplicita la propria attività normativa.

Per ciò che riguarda gli organi, in massima sintesi, essi sono:

  • CONSIGLIO EUROPEO: è l’organismo che disciplina la priorità e gli indirizzi politici generali dell’UE ed esamina i poteri del processo di integrazione. Comprende i capi di Stato, in caso di Paesi ove il regime istituzionale è presidenziale o di Governo, ove invece esso sia parlamentare, nonché il Presidente della Commissione Europea ed elegge un Presidente esterno;
  • COMMISSIONE EUROPEA: è un organo con una doppia funzione: da un lato esecutiva e dall’altro di promozione del processo legislativo. Si compone di un Commissario per ciascuno Stato membro, ognuno munito di una specifica delega.
  • PARLAMENTO EUROPEO: si compone di 705 membri, è l’unico organo elettivo dell’UE e insieme al Consiglio Europeo partecipa al processo legislativo dell’UE.

Per ciò che riguarda gli atti a contenuto legislativo, sempre in estrema sintesi, sono:

  • REGOLAMENTO: è un atto giuridico a contenuto vincolante che deve essere applicato a tutti i suoi elementi.
  • DIRETTIVA: si tratta di un atto giuridico che stabilisce un obiettivo che i paesi dell’UE devono conseguire, lasciando ai Paesi definire attraverso leggi nazionali su come perseguirla.
  • DECISIONE: costituisce un atto giuridico vincolante e direttamente applicabile solo per i suoi destinatari, ad esempio un paese dell’UE o una singola impresa.
  • RACCOMANDAZIONE: configura  un atto giuridico non vincolante, che serve all’istituzione che lo emana a rendere note le proprie posizioni  o suggerire linee d’azione, senza imporre obblighi giuridici a carico dei destinatari.
  • PARERE: anch’esso integra un atto non vincolante e serve a esprimere il punto di vista dell’istituzione, all’interno del procedimento legislativo.

 

3. IL CAMMINO DELLA REGOLAMENTAZIONE EUROPEA

Nell’aprile 2018, insieme a varie dichiarazioni relative al mercato unico digitale europeo, la Commissione Europea pubblicava una prima comunicazione su: “L’intelligenza artificiale per l’Europa” nella quale il fenomeno tecnologico è esaminato in relazione agli obiettivi di integrazione economica e di competitività internazionale dell’UE.

Questi i pilastri dello Studio compiuto dalla Commissione:

  1. Dare impulso alla capacità tecnologica e industriale dell’UE e all’adozione dell’intelligenza artificiale in tutti i settori economici, sia privati che pubblici;
  2. Prepararsi ai cambiamenti socio economici apportati dall’IA;
  • Assicurare un quadro etico e giuridico adeguato.

Già in questa sede la Commissione UE attribuiva alla regolamentazione dell’IA sia caratteri di antropocentrismo che finalità di inclusione sociale.

Il passo successivo fu il Piano coordinato in materia di intelligenza artificiale pubblicato nel 2018 sempre dalla Commissione UE.

Esso si proponeva di massimizzare gli investimenti nel settore, promuovere energie e collaborazioni a livello transnazionale, condividere best practices e permettere dunque alle imprese dell’UE di concorrere nel mercato globale.

Onde conseguire questi risultati la Commissione individuava quali aree di intervento:

  1. La promozione di partneriati tra realtà pubbliche e realtà private;
  2. Il finanziamento alle start-up;
  • La creazione di programmi accademici incentrati sulla ricerca in materia di intelligenza artificiale.

Il Piano individuava altresì come precondizione essenziale per lo sviluppo dell’IA un’adeguata accessibilità ai dati, da intendersi come presupposto dell’accuratezza dei risultati.

Il successivo Libro Bianco dell’Intelligenza Artificiale pubblicato nel febbraio 2020 sempre dalla Commissione Europea, che mantiene la dicotomia tra necessità di promuovere il mercato da un lato e di creare meccanismi di fiducia negli strumenti di IA per gli intenti.

 

4. L’AI ACT

Il sopra descritto cammino normativo ha condotto all’elaborazione dell’Artificial Intelligence Act (AI ACT) ossia un regolamento destinato a disciplinare l’IA  nel rispetto dei diritti e dei valori dell’UE.

Una prima bozza di esso è stata approvata dal Parlamento Europeo lo scorso 14 giugno 2023, il successivo  8 dicembre 2023 si è raggiunto un accordo tra lo stesso Parlamento Europeo ed il Consiglio Europeo sul testo normativo, quindi non resta che attendere l’imprimatur dato dal voto di questi due organismi.

L’attuale testo si compone di 85 articoli e 9 allegati.

L’idea è istituire un quadro giuridico uniforme volto a regolare lo sviluppo, la commercializzazione e l’uso dei sistemi di IA in conformità con i principi dell’UE.

Onde addivenire a ciò il legislatore europeo ha scelto il Risk based approach, ossia un sistema basato su obblighi diversi secondo il rischio.

I sistemi di IA sono considerati a rischio inaccettabile e pertanto vietati quando costituiscono una minaccia per le persone: vi rientra tutto ciò che rappresenta una: “Chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”, come l’assegnazione di un: “Punteggio sociale da parte dei Governi”.

In particolare, il rischio inaccettabile comprende la:

“Manipolazione comportamentale cognitiva di persone o gruppi  vulnerabili specifici, la classificazione sociale e sistemi di identificazione biometrica in tempo reale a distanza, come il riconoscimento facciale”.

Quindi sono  vietati sistemi di:

  • IA che utilizzano tecniche subliminali o tecniche manipolative o ingannevoli per distorcere il comportamento;
  • IA che sfruttano la vulnerabilità di individui o gruppi di individui specifici;
  • Caratterizzazione biometrica basati su attributi con caratteristiche sensibili;
  • Social scaring, ossia di classificazione della reputazione dei cittadini.

Come noto, la reputazione attiene all’identità sociale, ossia alle convinzioni e alle opinioni che gli altri soggetti, membri del gruppo di appartenenza, si fanno di una certa persona.

La normativa di prossima approvazione si preoccupa proprio di scongiurare pericoli di campagne denigratorie basate su sistemi di IA.

Dopo il rischio inaccettabile c’è il rischio alto, inteso come: “Rischio significativo di danno alla salute, alla sicurezza e ai diritti fondamentali” che si presenta quale: “Risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dai suoi effetti e la capacità di colpire un individuo, una pluralità di persone o un particolare gruppo di persone”.

Nella tematica in esame sono dunque altresì compresi i rischi ambientali, onde per cui i sistemi basati sull’intelligenza artificiale in questo settore dovranno essere conformi agli standard ambientali europei.

I sistemi di utilizzo ad Alto rischio della tecnologia AI includono in particolare i seguenti ambiti:

  • Infrastrutture critiche, come ad esempio trasporti ed edilizia, che potrebbero mettere a rischio la vita e la salute dei cittadini;
  • Formazione educativa e professionale, ad esempio i punteggi scolastici o dei test di ammissione a corsi;
  • Affidabilità creditizia e bancaria;
  • Gestione della giustizia e processi democratici;
  • Gestione dei fenomeni migratori;
  • Componenti di sicurezza nei prodotti; in alcuni settori, come la chirurgia che si avvale sempre più dell’aiuto della robotica;
  • Occupazione e accesso al lavoro, ad esempio l’esame dei curricula o la formazione di graduatorie.

In tali ambiti i sistemi di IA non saranno vietati, ma dovranno essere soggetti a un controllo particolarmente rigoroso e penetrante da parte dell’Autorità competente, oltre a meccanismi che ne assicurino la trasparenza.

 

5. REGOLAMENTAZIONE EUROPEA IN MATERIA DI PRIVACY: DAL GDPR AL DATA ACT

“Il rischio è che la persona venga considerata una sorta di miniera a cielo aperto dove chiunque può attingere qualsiasi informazione e così costruire profili individuali, familiari, di gruppo, facendo così divenire la persona oggetto di poteri esterni che possono falsificarla, costruirla in forme correnti di bisogni di una società della sorveglianza, della selezione sociale, del calcolo economico”.

Stefano RODOTA’ – Il futuro della proprietà intellettuale nella società algoritmica, in www.civilistica.com, 2013

Il primo corpus normativo in materia è costituito dal Regolamento generale sulla protezione dei dati personali (GDPR) emanato il 27 aprile 2016 dall’UE ed operativo dal 25 maggio 2018.

Per ciò che qui interessa, l’art. 22 del GDPR dispone che:

“L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.

In realtà i canoni giurisprudenziali in uso nel nostro Paese già conoscono e applicano il predetto principio:

“La decisione amministrativa automatizzata, di per sé legittima, impone al giudice di valutare in primo luogo la correttezza del processo informatico in tutte le sue componenti: dalla sua costruzione, all’inserimento dei dati, alla loro validità, alla loro gestione. Da qui, come si è detto, si conferma la necessità di assicurare che quel processo, a livello amministrativo, avvenga in maniera trasparente, attraverso la conoscibilità dei dati immessi e dell’algoritmo medesimo. In secondo luogo, il giudice deve poter sindacare la stessa logicità e ragionevolezza della decisione amministrativa robotizzata, ovvero della “regola” che governa l’algoritmo, di cui si è ampiamente detto”

 Cons. Stato, Sez. VI, 08/04/2019, n. 2270 in Quotidiano giuridico, 2019

e:

In caso di ricorso ad algoritmi per l’adozione di provvedimenti amministrativi, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. Con le già individuate conseguenze in termini di conoscenza e di sindacabilità. In senso contrario non può assumere rilievo la riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza.

Cons. Stato, Sez. VI, 04/02/2020, n. 881 in www.onelegale.wolterskluwer.it

Anche la Corte Costituzionale tedesca si è allineata al principio de quo, scrutinando un programma finalizzato a trattare dati utili a verificare connessioni di persone, organizzazione, luoghi, cose, con la criminalità, ha imposto limitazioni all’utilizzo indiscriminato degli strumenti di analisi e di valutazione automatizzata da parte dell’Autorità di Polizia.

Lo stesso principio è confermato dall’art. 14 del Regolamento (UE) 2023/2854, emanato il 13 dicembre 2023 e che entrerà in vigore a scaglioni i prossimi 12 settembre 2025, 12 settembre 2026 e 12 settembre 2027, meglio noto come Data Act.

Tuttavia è intuitivo che quando si tratta di automatismi decisionali dettati da strumenti decisionali dettati da strumenti di intelligenza artificiale, l’osservanza di un simile divieto è particolarmente ardua sia per il meccanismo di nudging(spinta gentile) dettato dallo sforzo valutativo che comporta il discostarsi dal responso della macchina, sia per la probatio diabolica del dover dimostrare che una decisione effettivamente allineata al suggerimento della macchina sia fondata solo su di esso.

A parere di chi scrive, l’IA esprime  un carattere antropocentrico nel senso che sarà un utilissimo ausilio per una Pubblica Amministrazione funzionante e comunque capace di motivare i propri provvedimenti, mentre rischierà di finire per aggravare il malfunzionamento di una PA sciatta e desiderosa di trincerarsi dietro automatismi.

In altre parole, a parere di chi scrive, l’IA non appare allo stato in grado di risolvere le criticità, le contraddizioni e soprattutto le disuguaglianze che connotano la realtà attuale, ma ha quantomeno il grande merito di metterle ulteriormente in luce.

BIBLIOGRAFIA

ABRIANI, N. – SCHNEIDER, G. – Diritto delle imprese e intelligenza artificiale dalla Fintech alla Corporate, Il Mulino, Bologna, 2022

ARNAUDO, L. – PARDOLESI, R. – Ecce robot. Sulla responsabilità di sistemi adulti di intelligenza artificiale, in Danno e responsabilità, luglio 2023,  409ss

BODEI, R. – Dominio e sottomissione, Schiavi animali, macchine, intelligenza artificiale, Il Mulino, Bologna, 2019

D’ALOIA, A. (a cura di) – Intelligenza artificiale e diritto, come regolare un mondo nuovo, Franco Angeli, Milano, 2020, 7ss

FLORIDI, L., –  La quarta rivoluzione: come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, 2017

GULOTTA, G. – VARISCHI, P.L. – PINO, S. – Elementi di psicologia giuridica e diritto psicologico, Giuffré, Milano, 2000, 1298

MACRI’, I., Intelligenza artificiale per la Pubblica Amministrazione, Azienditalia, 7, luglio 2023, 947ss

MERLER, M., La Corte Costituzionale tedesca si pronuncia sul trattamento automatizzato dei dati in contesti di polizia in Giornale di diritto amministrativo, n. 5, 2023, 685ss

PAGALLO, U. – The law of Robots. Crimes, Contracts and Torts, Dordrecht, Springer, 2013

PASCUZZI, G. – Il diritto nell’era digitale, Il Mulino, 2020

QUINTARELLI, S. (a cura di) – Intelligenza artificiale. Cos’è davvero, come funziona, che effetti avrà, Bollati Boringhieri, 2020

RICOLFI, M. –  Il futuro della proprietà intellettuale nella società algoritmica, in Giur.it., 2019, 10ss

RODOTA’, S. – Il futuro della proprietà intellettuale nella società algoritmica, in www.civilistica.com, 2013

 RUFFOLO, U. – Il problema della personalità elettronica in Journal of Ethics and Legal Technologies, 2020, 76ss

ZENO ZENCOVICH, V. – GIANNONE CODIGLIONE, G. – Ten legal Perspectives on the Big Data Revolution, in Concorrenza e Mercato, 2016, 29ss

Newsletter