Home / Editoriali / Intelligenza artificiale e intelligenza naturale

Intelligenza artificiale e intelligenza naturale

Intelligenza artificiale e intelligenza naturale

di Carlo Focarelli

Si è molto discusso negli ultimi anni di una «crisi», se non della «fine», dei diritti umani, specie sotto la pressione del c.d. «sovranismo» diffusosi a livello globale in concomitanza con le posizioni dell’ex Presidente degli Stati Uniti Donald Trump. La questione può ricondursi, più indietro nel tempo, almeno alla politica c.d. «neoliberista» della destra anglo-americana, che è riuscita a «riformulare» i «valori» occidentali, contro il blocco comunista durante gli ultimi anni della guerra fredda, in termini di efficientismo e oggettivismo economico, dando una patina di scientificità di «non-ritorno» o di «ovvia inesistenza di alternative credibili» ad una strategia di potenza e di controllo globale delle masse, ed erodendo i diritti della persona umana intesa nella sua unicità e complessità attraverso tecniche di omogeneizzazione e semplificazione consumistica applicate ad ogni aspetto della vita sociale.

Continua

La c.d. «intelligenza artificiale» (IA, AI), i cui vantaggi nessuno può negare (come si può dire di qualsiasi progresso tecnologico), in questo senso rappresenta la sintesi del gregarismo sociale che cerca di depotenziare la «persona umana» nella sua unicità e complessità, non diversamente sotto questo profilo da quanto avviene in qualsiasi regime totalitario, non importa se autocratico o democratico. Parlare di «diritti umani» può allora diventare senza senso, così come parlare di una loro «crisi», o di una loro operatività come «limiti» agli eccessi dell’IA, se non si modifica a livello psichico lo sfondo autoritario di massa che guida le tecniche pubblicitarie intese a trasformare gli stessi diritti umani in prodotti commercialmente funzionali [1].

Su questo sfondo, occorre registrare che si vanno moltiplicando presso organizzazioni internazionali e altre istituzioni (ad esempio nuovi corsi di laurea nelle università) gli «studi» sulla IA. La locuzione è quanto mai rivelativa del suo intento di fondo, che non è certo l’intelligenza, che chiameremmo «naturale», comunque la si intenda, ma è l’artefatto che dà maggiore potenza a chi se ne serve, al punto che l’epoca attuale potrebbe descriversi come quella della «AI Race», non dissimile dalla «Space Race» degli anni ’60 del XX sec. Se l’«intelligenza naturale» cerca di capire il mondo, l’«intelligenza artificiale» cerca di manipolarlo (nel bene e nel male) a prescindere, se necessario, dal capirlo.

Tra gli innumerevoli documenti internazionali elaborati più recentemente possono ricordarsi, tra quelli adottati nel 2019, le «Nuove Linee-guida sulla protezione dei dati e l’intelligenza artificiale» (Consiglio d’Europa), la risoluzione sulla «politica industriale europea globale in materia di robotica e intelligenza artificiale» (Parlamento UE), una raccomandazione sull’intelligenza artificiale diretta «a stimolare l’innovazione» (OCSE); e, tra quelli adottati nel 2020, la «Carta bianca sull’intelligenza artificiale» (Commissione UE), la raccomandazione sull’«etica dell’intelligenza artificiale» (UNESCO) e una raccomandazione relativa all’«impatto dei sistemi algoritmici sui diritti umani» (Consiglio d’Europa). In tutti questi documenti l’incipit di routine è immancabilmente che l’IA è molto utile ma può comportare dei rischi. L’accento viene poi dosato diversamente a seconda del contesto e di solito le organizzazioni economiche esaltano i benefici, pur notando di passaggio i rischi, mentre le organizzazioni umanitarie appaiono più attente ai possibili effetti negativi di tipo etico e sui diritti umani.

A scorrere questi documenti, straordinariamente prolissi e ripetitivi, si nota che: (a) i termini «intelligenza» e «artificiale» non vengono definiti ma dati per acquisiti; (b) si insiste nel definire l’approccio seguito come «umano-centrico» ma senza definire in base a quale definizione di «umano»; (c) si raccomanda l’inculcazione della «fiducia», cioè di una fede progressivamente interiorizzata, nell’IA come catalizzatrice dei benefici promessi, che appaiono essenzialmente di tipo materiale; (d) si dà per scontato e già deciso che l’IA va perseguita, rimanendo da discutere solo il modo di muoversi così da raggiungere prima degli altri la leadership globale secondo i propri valori (ad esempio da parte dell’Unione Europea contro Stati Uniti, Russia e Cina).

Si tratta di un approccio di potenza (e di scontro aperto) nel quale la posta in gioco è chi controlla il mondo, e l’IA, come da sempre la tecnologia, è cruciale. Come ha ben chiarito Vladimir Putin nel 2017 «Whoever becomes the leader in this sphere [AI] will become the ruler of the world» [2]. Parlare di «etica» e di diritti umani, e addirittura di un’«etica» (anch’essa mai definita tra le innumerevoli etiche che da millenni si contendono il campo) «dell’IA», in questo contesto può suonare retorico ai più ingenui e perfettamente funzionale al sistema di potenza ai più scaltri.

Da ultimo, il 21 aprile 2021, la Commissione UE ha pubblicato una Proposta di Regolamento sull’intelligenza artificiale [3]. Ci limitiamo a rilevare che la Proposta si presenta in veste essenzialmente economica, essendo finalizzata a «migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale (IA) in conformità ai valori dell’Unione» (1° considerando del preambolo). Nel farlo essa categorizza i dispositivi IA in proporzione al loro rischio di ledere i diritti fondamentali, contemplando misure sempre più restrittive via via che il rischio aumenta, fino ad arrivare al divieto nei casi limite, ad esempio quando il dispositivo IA causa o può causare danni fisici e psicologici oppure impone il c.d. «punteggio sociale» (social scoring) con effetti dannosi (art. 5).

Nella Relazione che accompagna la Proposta si ribadisce che «L’interesse dell’Unione è quello di preservare la leadership tecnologica dell’UE» in conformità dei valori UE. La Proposta si fonda sull’idea che vanno protetti, in proporzione al rischio, i diritti fondamentali spettanti agli individui intesi singolarmente, a prescindere dagli effetti sociali di tipo gregaristico. Senonché, il problema cruciale dell’automazione indotta dall’IA, pur riguardando i singoli, attiene agli effetti sociali aggregati: la protezione dei diritti fondamentali di singoli atomizzati ciascuno dei quali trova (ed è verosimile che trovi) una convenienza nell’IA non equivale necessariamente ad una convenienza o ad una moralità in senso sociale.

Da europei non possiamo che augurarci che l’UE riesca nel suo compito di assicurare diritti umani demercificati e deautomatizzati e contenere, usando la vecchia intelligenza «naturale», quel gregarismo di potenza che passo passo, nell’attuale «AI Race», può farci riprecipitare nell’abisso della guerra.

[1] V. C. Focarelli, International Human Rights “in Crisis” and the Neoliberalization of the Human Person, in Chinese Journal of International Law, 2020, pp. 53-100.

[2] https://www.rt.com/news/401731-ai-rule-world-putin.

[3] https://ec.europa.eu/transparency/regdoc/rep/1/2021/EN/COM-2021-206-F1-EN-MAIN-PART-1.PDF.

Editoriali

Diritto alla privacy e lotta al terrorismo nello spazio costituzionale europeo

di Salvatore Bonfiglio

La rivoluzione digitale sta segnando fortissimi cambiamenti, che sono in un certo senso paragonabili per importanza a quelli che si registrarono dopo la rivoluzione industriale tra il XVIII e il XIX secolo. Non è un caso che, com’è noto, proprio alla fine dell’Ottocento fu teorizzato il right of privacy definito, in un noto articolo di Warren e di Brandeis [1], come right to be let alone. Nella società industriale l’anonimato urbano fece sorgere nelle persone e, soprattutto, nella borghesia cittadina, il desiderio di difendere l’intimità privata contro l’ingerenza dei giornali. 

di Lina Panella

Il 28 giugno 2012 il Comitato dei diritti dell’uomo della Società italiana per l’Organizzazione Internazionale (SIOI) ha organizzato un convegno in memoria della prof.ssa Maria Rita Saulle, ad un anno dalla scomparsa, dal titolo “I diritti umani nella giustizia costituzionale ed internazionale”. Alla presenza del marito prof. Francesco Durante e di numerosissimi colleghi sia del mondo accademico che della Corte Costituzionale, la poliedrica figura della prof.ssa Saulle è stata  ricordata a quanti hanno avuto il privilegio di  conoscerLa e lavorare al Suo fianco con alcune relazioni  scientifiche su particolari problematiche  che  erano state Suo oggetto di indagine privilegiato.

di  Marco Ruotolo

In un illuminante saggio del 2001, Alessandro Baratta affermava che l’enucleazione di un “diritto fondamentale alla sicurezza” non può essere altro che il “risultato di una costruzione costituzionale falsa o perversa” . Se tale preteso diritto si traduce nella “legittima domanda di sicurezza di tutti i diritti da parte di tutti i soggetti”, la costruzione è “superflua” e comunque la terminologia è fuorviante. Siamo, infatti, nel campo della “sicurezza dei diritti” o del “diritto ai diritti”, identificabile anche come “diritto umano ai diritti civili”, non già in quello proprio del “diritto alla sicurezza”. Se, invece, parlando di diritto alla sicurezza si intende selezionare “alcuni diritti di gruppi privilegiati e una priorità di azione per l’apparato amministrativo e giudiziale a loro vantaggio”, la costruzione è “ideologica”, funzionale ad una limitazione della sicurezza dei diritti attraverso l’artificio del “diritto alla sicurezza”.

di Stefano Ceccanti

Se leggiamo una delle Costituzioni degli Stati democratico-sociali, come la nostra, dobbiamo cercare anzitutto di coglierne l'ispirazione di fondo attraverso gli enunciati di articoli e commi, ma senza trattarla come se fosse un testo inerte, sapendo vedere al di là di essi, ricercando le loro matrici.

Sulla materia oggetto di questo breve contributo penso di aver trovato la chiave di lettura complessiva migliore, che le illustra adeguatamente, in alcuni testi di Paul Ricoeur, raccolti ora da Luca Alici: Il diritto di punire per Morcelliana.