Intelligenza artificiale è la definizione del processo di continua evoluzione di sempre più nuove tecnologie che si sono anche avviate ad alcune forme di autonomia, che comunque non possono assumere un’indipendente soggettività giuridica e debbono essere sempre indirizzate e controllate dalle responsabilità delle persone umane. In tal senso si sono pronunciati anche organismi internazionali della stessa Onu.
La libertà di innovazione e di utilizzazione di sempre più avanzate tecnologie va sempre accompagnata dalla responsabilità etica e giuridica delle persone che debbono sempre guidarne le potenzialità, senza sottovalutarne i rischi per le libertà di ciascuno, come definite dalla Costituzione della Repubblica, dalle norme della Ue e da quelle internazionali.
Sono, infatti, infinite le potenzialità dell’intelligenza artificiale che possono alleggerire il lavoro fisico delle persone, anche innestando un’ennesima, continua rivoluzione industriale, ma altrettanto infiniti sono i rischi per le libertà e la certezza del diritto, perché l’intelligenza artificiale può anche produrre all’infinito, per esempio, notizie inesistenti, sentenze inventate, false prove innanzitutto per diffamare persone, documentazioni anche bancarie e finanziarie inesistenti, predisposte artificiosamente e fraudolentemente, ecc. I falsi documenti sono facilmente diffondibili innanzitutto attraverso le tante potenzialità di Internet che non evita i rischi.
Finora l’attenzione preminente, anche con l’applicazione di normative europee, viene indirizzata all’utilizzazione dei dati: ciò è indispensabile, ma non sufficiente, perché l’intelligenza artificiale ha delle molteplici evoluzioni che sviluppano una vera rivoluzione culturale e possono attivare varie fattispecie giuridiche. Nel corso di una possibile pandemia, l’utilizzazione dei dati con l’intelligenza artificiale può essere utile per salvare vite umane, ma ciò va regolato possibilmente almeno dalla Ue.
Infatti, non può essere soltanto l’ambito nazionale quello idoneo per regolare compiti e responsabilità nell’utilizzo dell’intelligenza artificiale che non si ferma facilmente ai confini fisici degli Stati: ambiti ben più ampi, come la Ue, si sono attivati e sono impegnati in proposito, ma occorrono ben più estesi accordi internazionali sui doveri e diritti nell’utilizzo dell’intelligenza artificiale. Organismi internazionali come il G7 possono svolgere un ruolo decisivo in proposito.
Giusella Finocchiaro, nel suo concettoso e molto chiaro ‘Intelligenza Artificiale. Quali regole?’ (il Mulino), sottolinea che innanzitutto occorre definire i principi etici e giuridici dell’intelligenza artificiale. Già il G7 dell’ottobre 2023 ha definito una dichiarazione sull’intelligenza artificiale accompagnata da Principi guida e da un Codice di condotta per chi sviluppi sistemi tecnologici così avanzati.
In Usa alcune delle più grandi società tecnologiche si sono volontariamente impegnate a garantire lo sviluppo sicuro, affidabile e trasparente dell’intelligenza artificiale. L’Unione Europea ha definito alcuni orientamenti etici per l’intelligenza artificiale, fra cui la sorveglianza degli umani, la sicurezza, la riservatezza e il controllo dei dati, la trasparenza, l’equità e non discriminazione, il benessere sociale e ambientale. Insomma, debbono essere neutre e non favorire, né penalizzare alcuno le norme applicabili all’intelligenza artificiale, così come deve essere sempre imparziale, generale e astratto il diritto applicabile alle persone fisiche e giuridiche.
* Presidente
Associazione Bancaria Italiana