News di Lucio Romano

Regolamento europeo sull’IA. Pubblicato oggi in Gazzetta.

Regolamento europeo sull’IA. Pubblicato oggi in Gazzetta.

Da oggi 12 luglio 2024, con la pubblicazione in Gazzetta, il Regolamento europeo sull’Intelligenza Artificiale è ufficialmente legge dell’Unione europea.

Ecco il link: https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689

“Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale (sistemi di IA) nell’Unione, in conformità dei valori dell’Unione, promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell’Unione, nonché promuovere l’innovazione. Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull’IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all’uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.”

Centro Interuniversitario di Ricerca Bioetica. Premio “M. Coltorti 2024”

Centro Interuniversitario di Ricerca Bioetica. Premio “M. Coltorti 2024”

Oggi al Centro Interuniversitario di Ricerca Bioetica (CIRB), proclamazione dei vincitori Premio “M. Coltorti 2024”. In qualità di Presidente della Commissione giudicatrice, con il Prof. Luigi Ferraro e il Prof. Don Gennaro Busiello, abbiamo ritenuto meritevoli tesi che hanno elaborato interessanti aspetti della ricerca in bioetica. Al premio “M. Coltorti” partecipano le Università della Campania e l’Università del Molise. La manifestazione si è svolta in occasione della Lectio Magistralis del Prof. Padre Paolo Benanti sul tema ”Potenzialità e sfide delle Intelligenze Artificiali”. La Lectio è stata presieduta e introdotta dal Prof. Andrea Patroni Griffi, costituzionalista e Direttore del CIRB.

The impact of generative artificial intelligence on socioeconomic inequalities and policy making

The impact of generative artificial intelligence on socioeconomic inequalities and policy making

Generative artificial intelligence (AI) has the potential to both exacerbate and ameliorate existing socioeconomic inequalities. In this article, we provide a state-of-the-art interdisciplinary overview of the potential impacts of generative AI on (mis)information and three information-intensive domains: work, education, and healthcare. Our goal is to highlight how generative AI could worsen existing inequalities while illuminating how AI may help mitigate pervasive social problems. In the information domain, generative AI can democratize content creation and access but may dramatically expand the production and proliferation of misinformation. In the workplace, it can boost productivity and create new jobs, but the benefits will likely be distributed unevenly. In education, it offers personalized learning, but may widen the digital divide. In healthcare, it might improve diagnostics and accessibility, but could deepen pre-existing inequalities. In each section, we cover a specific topic, evaluate existing research, identify critical gaps, and recommend research directions, including explicit trade-offs that complicate the derivation of a priori hypotheses. We conclude with a section highlighting the role of policymaking to maximize generative AI’s potential to reduce inequalities while mitigating its harmful effects. We discuss strengths and weaknesses of existing policy frameworks in the European Union, the United States, and the United Kingdom, observing that each fails to fully confront the socioeconomic challenges we have identified. We propose several concrete policies that could promote shared prosperity through the advancement of generative AI. This article emphasizes the need for interdisciplinary collaborations to understand and address the complex challenges of generative AI.

pgae191

“Il costruttore”

“Il costruttore”

Una grande testimonianza di politica, di democrazia, di rigore morale, di valori. “Il costruttore”, ovvero Alcide De Gasperi. Quest’anno ricorre il 70° anniversario della morte. Mi permetto di consigliare la lettura del libro di Antonio Polito. “Chi vuole rottamare, chi promette di asfaltare, chi minaccia di usare la ruspa. I politici dei nostri giorni amano distruggere, annunciano di voler abbattere l’edificio del passato, anche se di solito finiscono per abbattersi da soli”, così Antonio Polito nell’introduzione del libro.

Che prosegue: “Ci fu invece un uomo che si propose come «costruttore»: Alcide De Gasperi. Nel 70° anniversario della morte, cinque lezioni di straordinaria attualità che spaziano dalla sua concezione della democrazia come «antidittatura», che lo portò ad essere prima antifascista e poi anticomunista, alla politica estera, alla gestione della spesa pubblica, all’intervento del Mezzogiorno. Un modello per i politici dei nostri tempi.”

Tra le tante e significative citazioni riportate nel libro, “alla futura moglie, abituata a una certa agiatezza, ricordava prima del matrimonio la sua modesta situazione finanziaria e l’impegno alla sobrietà che aveva assunto con se stesso: «Con le mie attitudini posso, se vorrò guadagnare di più. L’avrei potuto anche fin d’ora, ma mi sono tracciate norme di severo disinteresse perché mi preme soprattutto la valutazione morale. Io sono tranquillo che tu condividerai con me le larghezze e le strettezze della vita e che in te troverò un sostegno per addolcire quella preoccupazione che venisse, non un aculeo verso i guadagni che potessero turbare la limpidezza della mia vita politica.»

“Intelligenza artificiale: uno strumento affascinante e tremendo” – Papa Francesco al G7, il testo integrale del discorso

“Intelligenza artificiale: uno strumento affascinante e tremendo” – Papa Francesco al G7, il testo integrale del discorso

Gentili Signore, illustri Signori!

Mi rivolgo oggi a Voi, Leader del Forum Intergovernativo del G7, con una riflessione sugli effetti dell’intelligenza artificiale sul futuro dell’umanità.

«La Sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano “saggezza, intelligenza e scienza in ogni genere di lavoro” ( Es 35,31)» [1]. La scienza e la tecnologia sono dunque prodotti straordinari del potenziale creativo di noi esseri umani [2].

Ebbene, è proprio dall’utilizzo di questo potenziale creativo che Dio ci ha donato che viene alla luce l’intelligenza artificiale.

Quest’ultima,come è noto,è uno strumento estremamente potente, impiegato in tantissime aree dell’agire umano: dalla medicina al mondo del lavoro, dalla cultura all’ambito della comunicazione, dall’educazione alla politica. Ed è ora lecito ipotizzare che il suo uso influenzerà sempre di più il nostro modo di vivere, le nostre relazioni sociali e nel futuro persino la maniera in cui concepiamo la nostra identità di esseri umani [3].

Il tema dell’intelligenza artificiale è, tuttavia, spesso percepito come ambivalente: da un lato, entusiasma per le possibilità che offre, dall’altro genera timore per le conseguenze che lascia presagire. A questo proposito si può dire che tutti noi siamo, anche se in misura diversa, attraversati da dueemozioni: siamo entusiasti, quando immaginiamo i progressi che dall’intelligenza artificiale possono derivare, ma, al tempo stesso, siamo impauriti quando constatiamo i pericoli inerenti al suo uso [4].

Non possiamo, del resto, dubitare che l’avvento dell’intelligenza artificiale rappresenti una vera e propria rivoluzione cognitivo-industriale, che contribuirà alla creazione di un nuovo sistema sociale caratterizzato da complesse trasformazioni epocali. Ad esempio, l’intelligenza artificiale potrebbe permettere una democratizzazione dell’accesso al sapere, il progresso esponenziale della ricerca scientifica, la possibilità di delegare alle macchine i lavori usuranti; ma, al tempo stesso, essa potrebbe portare con sé una più grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo così in pericolo la possibilità di una “cultura dell’incontro” a vantaggio di una “cultura dello scarto”.

La portata di queste complesse trasformazioni è ovviamente legata al rapido sviluppo tecnologico dell’intelligenza artificiale stessa.

Proprio questo vigoroso avanzamento tecnologico rende l’intelligenza artificiale uno strumento affascinante e tremendo al tempo stesso ed impone una riflessione all’altezza della situazione.

In tale direzione forse si potrebbe partire dalla costatazione che l’intelligenza artificiale è innanzitutto uno strumento. E viene spontaneo affermare che i benefici o i danni che essa porterà dipenderanno dal suo impiego.

Questo è sicuramente vero, poiché così è stato per ogni utensile costruito dall’essere umano sin dalla notte dei tempi.

Questa nostra capacità di costruire utensili, in una quantità e complessità che non ha pari tra i viventi, fa parlare di una condizione tecno-umana: l’essere umano ha da sempre mantenuto una relazione con l’ambiente mediata dagli strumenti che via via produceva. Non è possibile separare la storia dell’uomo e della civilizzazione dalla storia di tali strumenti. Qualcuno ha voluto leggere in tutto ciò una sorta di mancanza, un deficit, dell’essere umano, come se, a causa di tale carenza, fosse costretto a dare vita alla tecnologia [5]. Uno sguardo attento e oggettivo in realtà ci mostra l’opposto. Viviamo una condizione di ulteriorità rispetto al nostro essere biologico; siamo esseri sbilanciati verso il fuori-di-noi, anzi radicalmente aperti all’oltre. Da qui prende origine la nostra apertura agli altri e a Dio; da qui nasce il potenziale creativo della nostra intelligenza in termini di cultura e di bellezza; da qui, da ultimo, si origina la nostra capacità tecnica. La tecnologia è così una traccia di questa nostra ulteriorità.

Tuttavia, l’uso dei nostri utensili non sempre è univocamente rivolto al bene. Anche se l’essere umano sente dentro di sé una vocazione all’oltre e alla conoscenza vissuta come strumento di bene al servizio dei fratelli e delle sorelle e della casa comune (cfr Gaudium et spes, 16), non sempre questo accade. Anzi, non di rado, proprio grazie alla sua radicale libertà, l’umanità ha pervertito i fini del suo essere trasformandosi in nemica di sé stessa e del pianeta [6]. Stessa sorte possono avere gli strumenti tecnologici. Solo se sarà garantita la loro vocazione al servizio dell’umano, gli strumenti tecnologici riveleranno non solo la grandezza e la dignità unica dell’essere umano, ma anche il mandato che quest’ultimo ha ricevuto di “coltivare e custodire” (cfr Gen 2,15) il pianeta e tutti i suoi abitanti. Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica.

Quando i nostri antenati, infatti, affilarono delle pietre di selce per costruire dei coltelli, li usarono sia per tagliare il pellame per i vestiti sia per uccidersi gli uni gli altri. Lo stesso si potrebbe dire di altre tecnologie molto più avanzate, quali l’energia prodotta dalla fusione degli atomi come avviene sul Sole, che potrebbe essere utilizzata certamente per produrre energia pulita e rinnovabile ma anche per ridurre il nostro pianeta in un cumulo di cenere.

L’intelligenza artificiale, però, è uno strumento ancora più complesso. Direi quasi che si tratta di uno strumento sui generis. Così, mentre l’uso di un utensile semplice (come il coltello) è sotto il controllo dell’essere umano che lo utilizza e solo da quest’ultimo dipende un suo buon uso, l’intelligenza artificiale, invece, può adattarsi autonomamente al compito che le viene assegnato e, se progettata con questa modalità, operare scelte indipendenti dall’essere umano per raggiungere l’obiettivo prefissato [7].

Conviene sempre ricordare che la macchina può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche. Ciò che la macchina fa è una scelta tecnica tra più possibilità e si basa o su criteri ben definiti o su inferenze statistiche. L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. La decisione è un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica. A volte, spesso nel difficile compito del governare, siamo chiamati a decidere con conseguenze anche su molte persone. Da sempre la riflessione umana parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita. Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana.

Proprio su questo tema permettetemi di insistere: in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano.

C’è da aggiungere, inoltre, che il buon uso, almeno delle forme avanzate di intelligenza artificiale, non sarà pienamente sotto il controllo né degli utilizzatori né dei programmatori che ne hanno definito gli scopi originari al momento dell’ideazione. E questo è tanto più vero quanto è altamente probabile che, in un futuro non lontano, i programmi di intelligenze artificiali potranno comunicare direttamente gli uni con gli altri, per migliorare le loro performance. E, se in passato, gli esseri umani che hanno modellato utensili semplici hanno visto la loro esistenza modellata da questi ultimi – il coltello ha permesso loro di sopravvivere al freddo ma anche di sviluppare l’arte della guerra – adesso che gli esseri umani hanno modellato uno strumento complesso vedranno quest’ultimo modellare ancora di più la loro esistenza [8].

Il meccanismo basilare dell’intelligenza artificiale

Vorrei ora soffermarmi brevemente sulla complessità dell’intelligenza artificiale. Nella sua essenza l’intelligenza artificiale è un utensile disegnato per la risoluzione di un problema e funziona per mezzo di un concatenamento logico di operazioni algebriche, effettuato su categorie di dati, che sono raffrontati per scoprire delle correlazioni, migliorandone il valore statistico, grazie a un processo di auto-apprendimento, basato sulla ricerca di ulteriori dati e sull’auto-modifica delle sue procedure di calcolo.

L’intelligenza artificiale è così disegnata per risolvere dei problemi specifici, ma per coloro che la utilizzano è spesso irresistibile la tentazione di trarre, a partire dalle soluzioni puntuali che essa propone, delle deduzioni generali, persino di ordine antropologico.

Un buon esempio è l’uso dei programmi disegnati per aiutare i magistrati nelle decisioni relative alla concessione dei domiciliari a detenuti che stanno scontando una pena in un istituto carcerario. In questo caso, si chiede all’intelligenza artificiale di prevedere la probabilità di recidiva del crimine commesso da parte di un condannato a partire da categorie prefissate (tipo di reato, comportamento in prigione, valutazione psicologiche ed altro), permettendo all’intelligenza artificiale di avere accesso a categorie di dati inerenti alla vita privata del detenuto (origine etnica, livello educativo, linea di credito ed altro). L’uso di una tale metodologia – che rischia a volte di delegare de facto a una macchina l’ultima parola sul destino di una persona – può portare con sé implicitamente il riferimento ai pregiudizi insiti alle categorie di dati utilizzati dall’intelligenza artificiale.

L’essere classificato in un certo gruppo etnico o, più prosaicamente, l’aver commesso anni prima un’infrazione minore (il non avere pagato, per esempio, una multa per una sosta vietata), influenzerà, infatti, la decisione circa la concessione dei domiciliari. Al contrario, l’essere umano è sempre in evoluzione ed è capace di sorprendere con le sue azioni, cosa di cui la macchina non può tenere conto.

C’è da far presente poi che applicazioni simili a questa appena citata subiranno un’accelerazione grazie al fatto che i programmi di intelligenza artificiale saranno sempre più dotati della capacità di interagire direttamente con gli esseri umani (chatbots), sostenendo conversazioni con loro e stabilendo rapporti di vicinanza con loro, spesso molto piacevoli e rassicuranti, in quanto tali programmi di intelligenza artificiale saranno disegnati per imparare a rispondere, in forma personalizzata, ai bisogni fisici e psicologici degli esseri umani.

Dimenticare che l’intelligenza artificiale non è un altro essere umano e che essa non può proporre principi generali, è spesso un grave errore che trae origine o dalla profonda necessità degli esseri umani di trovare una forma stabile di compagnia o da un loro presupposto subcosciente, ossia dal presupposto che le osservazioni ottenute mediante un meccanismo di calcolo siano dotate delle qualità di certezza indiscutibile e di universalità indubbia.

Questo presupposto, tuttavia, è azzardato, come dimostra l’esame dei limiti intrinseci del calcolo stesso. L’intelligenza artificiale usa delle operazioni algebriche da effettuarsi secondo una sequenza logica (per esempio, se il valore di X è superiore a quello di Y, moltiplica X per Y; altrimenti dividi X per Y). Questo metodo di calcolo – il cosiddetto “algoritmo” – non è dotato né di oggettività né di neutralità [9]. Essendo infatti basato sull’algebra, può esaminare solo realtà formalizzate in termini numerici [10].

Non va dimenticato, inoltre, che gli algoritmi disegnati per risolvere problemi molto complessi sono così sofisticati da rendere arduo agli stessi programmatori la comprensione esatta del come essi riescano a raggiungere i loro risultati. Questa tendenza alla sofisticazione rischia di accelerarsi notevolmente con l’introduzione di computer quantistici che non opereranno con circuiti binari (semiconduttori o microchip), ma secondo le leggi, alquanto articolate, della fisica quantistica. D’altronde, la continua introduzione di microchip sempre più performanti è diventata già una delle cause del predominio dell’uso dell’intelligenza artificiale da parte delle poche nazioni che ne sono dotate.

Sofisticate o meno che siano, la qualità delle risposte che i programmi di intelligenza artificiale forniscono dipendono in ultima istanza dai dati che essi usano e come da questi ultimi vengono strutturati.

Mi permetto di segnalare, infine, un ultimo ambito in cui emerge chiaramente la complessità del meccanismo della cosiddetta intelligenza artificiale generativa (Generative Artificial Intelligence). Nessuno dubita che oggi sono a disposizione magnifici strumenti di accesso alla conoscenza che permettono persino il self-learning e il self-tutoring in una miriade di campi. Molti di noi sono rimasti colpiti dalle applicazioni facilmente disponibili on-line per comporre un testo o produrre un’immagine su qualsiasi tema o soggetto. Particolarmente attratti da questa prospettiva sono gli studenti che, quando devono preparare degli elaborati, ne fanno un uso sproporzionato.

Questi alunni, che spesso sono molto più preparati e abituati all’uso dell’intelligenza artificiale dei loro professori, dimenticano, tuttavia, che la cosiddetta intelligenza artificiale generativa, in senso stretto, non è propriamente “generativa”. Quest’ultima, in verità, cerca nei big data delle informazioni e le confeziona nello stile che le è stato richiesto. Non sviluppa concetti o analisi nuove. Ripete quelle che trova, dando loro una forma accattivante. E più trova ripetuta una nozione o una ipotesi, più la considera legittima e valida. Più che “generativa”, essa è quindi “rafforzativa”, nel senso che riordina i contenuti esistenti, contribuendo a consolidarli, spesso senza controllare se contengano errori o preconcetti.

In questo modo, non solo si corre il rischio di legittimare delle fake news e di irrobustire il vantaggio di una cultura dominante, ma di minare altresì il processo educativo in nuce. L’educazione che dovrebbe fornire agli studenti la possibilità di una riflessione autentica rischia di ridursi a una ripetizione di nozioni, che verranno sempre di più valutate come inoppugnabili, semplicemente in ragione della loro continua riproposizione [11].

Rimettere al centro la dignità della persona in vista di una proposta etica condivisa

A quanto già detto va ora aggiunta un’osservazione più generale. La stagione di innovazione tecnologica che stiamo attraversando, infatti, si accompagna a una particolare e inedita congiuntura sociale: sui grandi temi del vivere sociale si riesce con sempre minore facilità a trovare intese. Anche in comunità caratterizzate da una certa continuità culturale, si creano spesso accesi dibattiti e confronti che rendono difficile produrre riflessioni e soluzioni politiche condivise, volte a cercare ciò che è bene e giusto. Oltre la complessità di legittime visioni che caratterizzano la famiglia umana, emerge un fattore che sembra accomunare queste diverse istanze. Si registra come uno smarrimento o quantomeno un’eclissi del senso dell’umano e un’apparente insignificanza del concetto di dignità umana [12]. Sembra che si stia perdendo il valore e il profondo significato di una delle categorie fondamentali dell’Occidente: la categoria di persona umana. Ed è così che in questa stagione in cui i programmi di intelligenza artificiale interrogano l’essere umano e il suo agire, proprio la debolezza dell’ ethos connesso alla percezione del valore e della dignità della persona umana rischia di essere il più grande vulnus nell’implementazione e nello sviluppo di questi sistemi. Non dobbiamo dimenticare infatti che nessuna innovazione è neutrale. La tecnologia nasce per uno scopo e, nel suo impatto con la società umana, rappresenta sempre una forma di ordine nelle relazioni sociali e una disposizione di potere, che abilita qualcuno a compiere azioni e impedisce ad altri di compierne altre. Questa costitutiva dimensione di potere della tecnologia include sempre, in una maniera più o meno esplicita, la visione del mondo di chi l’ha realizzata e sviluppata.

Questo vale anche per i programmi di intelligenza artificiale. Affinché questi ultimi siano strumenti per la costruzione del bene e di un domani migliore, debbono essere sempre ordinati al bene di ogni essere umano. Devono avere un’ispirazione etica.

La decisione etica, infatti, è quella che tiene conto non solo degli esiti di un’azione, ma anche dei valori in gioco e dei doveri che da questi valori derivano. Per questo ho salutato con favore la firma a Roma, nel 2020, della Rome Call for AI Ethics [13] e il suo sostegno a quella forma di moderazione etica degli algoritmi e dei programmi di intelligenza artificiale che ho chiamato “algoretica”  [14]. In un contesto plurale e globale, in cui si mostrano anche sensibilità diverse e gerarchie plurali nelle scale dei valori, sembrerebbe difficile trovare un’unica gerarchia di valori. Ma nell’analisi etica possiamo ricorrere anche ad altri tipi di strumenti: se facciamo fatica a definire un solo insieme di valori globali, possiamo però trovare dei principi condivisi con cui affrontare e sciogliere eventuali dilemmi o conflitti del vivere.

Per questa ragione è nata la Rome Call: nel termine “algoretica” si condensano una serie di principi che si dimostrano essere una piattaforma globale e plurale in grado di trovare il supporto di culture, religioni, organizzazioni internazionali e grandi aziende protagoniste di questo sviluppo.

La politica di cui c’è bisogno

Non possiamo, quindi, nascondere il rischio concreto, poiché insito nel suo meccanismo fondamentale, che l’intelligenza artificiale limiti la visione del mondo a realtà esprimibili in numeri e racchiuse in categorie preconfezionate, estromettendo l’apporto di altre forme di verità e imponendo modelli antropologici, socio-economici e culturali uniformi. Il paradigma tecnologico incarnato dall’intelligenza artificiale rischia allora di fare spazio a un paradigma ben più pericoloso, che ho già identificato con il nome di “paradigma tecnocratico” [15]. Non possiamo permettere a uno strumento così potente e così indispensabile come l’intelligenza artificiale di rinforzare un tale paradigma, ma anzi, dobbiamo fare dell’intelligenza artificiale un baluardo proprio contro la sua espansione.

Ed è proprio qui che è urgente l’azione politica, come ricorda l’Enciclica Fratelli tutti. Certamente «per molti la politica oggi è una brutta parola, e non si può ignorare che dietro questo fatto ci sono spesso gli errori, la corruzione, l’inefficienza di alcuni politici. A ciò si aggiungono le strategie che mirano a indebolirla, a sostituirla con l’economia o a dominarla con qualche ideologia. E tuttavia, può funzionare il mondo senza politica? Può trovare una via efficace verso la fraternità universale e la pace sociale senza una buona politica?» [16].

La nostra risposta a queste ultime domande è: no! La politica serve! Voglio ribadire in questa occasione che «davanti a tante forme di politica meschine e tese all’interesse immediato […] la grandezza politica si mostra quando, in momenti difficili, si opera sulla base di grandi principi e pensando al bene comune a lungo termine. Il potere politico fa molta fatica ad accogliere questo dovere in un progetto di Nazione e ancora di più in un progetto comune per l’umanità presente e futura» [17].

Gentili Signore, illustri Signori!

Questa mia riflessione sugli effetti dell’intelligenza artificiale sul futuro dell’umanità ci conduce così alla considerazione dell’importanza della “sana politica” per guardare con speranza e fiducia al nostro avvenire. Come ho già detto altrove, «la società mondiale ha gravi carenze strutturali che non si risolvono con rattoppi o soluzioni veloci meramente occasionali. Ci sono cose che devono essere cambiate con reimpostazioni di fondo e trasformazioni importanti. Solo una sana politica potrebbe averne la guida, coinvolgendo i più diversi settori e i più vari saperi. In tal modo, un’economia integrata in un progetto politico, sociale, culturale e popolare che tenda al bene comune può “aprire la strada a opportunità differenti, che non implicano di fermare la creatività umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovo” ( Laudato si’, 191)»  [18].

Questo è proprio il caso dell’intelligenza artificiale. Spetta ad ognuno farne buon uso e spetta alla politica creare le condizioni perché un tale buon uso sia possibile e fruttuoso.

Grazie.

____________________________________________________________________________

[1] Messaggio per la LVII Giornata Mondiale della Pace del 1° gennaio 2024, 1.

[2] Cfr ibid.

[3] Cfr ivi, 2.

[4] Questa ambivalenza fu già scorta da Papa San Paolo VI nel suo Discorso al personale del “Centro Automazione Analisi Linguistica” dell’Aloysianum, del 19 giugno 1964.

[5] Cfr A. Gehlen, L’uomo. La sua natura e il suo posto nel mondo, Milano 1983, 43.

[6] Lett. enc Laudato si’ (24 maggio 2015), 102-114.

[7] Cfr Messaggio per la LVII Giornata Mondiale della Pace del 1° gennaio 2024, 3.

[8] Le intuizioni di Marshall McLuhan e di John M. Culkin sono particolarmente pertinenti alle conseguenze dell’uso dell’intelligenza artificiale.

[9] Cfr Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.

[10] Cfr Messaggio per la LVII Giornata Mondiale della Pace del 1° gennaio 2024, 4.

[11] Cfr ivi, 3 e 7.

[12] Cfr Dicastero per la Dottrina della Fede, Dichiarazione Dignitas infinita circa la dignità umana (2 aprile 2024).

[13] Cfr Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.

[14] Cfr Discorso ai partecipanti al Convegno “Promoting Digital Child Dignity – From Concet to Action”, 14 novembre 2019; Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.

[15] Per una più ampia esposizione, rimando alla mia Lettera Enciclica Laudato si’ sulla cura della casa comune del 24 maggio 2015.

[16] Lettera enc. Fratelli tutti sulla fraternità e l’amicizia sociale (3 ottobre 2020), 176.

[17] Ivi, 178.

[18] Ivi, 179.

Borgo Egnazia (Puglia)
Venerdì, 14 giugno 2024

Abitare con responsabilità le sfide dell’IA: possiamo parlare di tecnoumanesimo?

Abitare con responsabilità le sfide dell’IA: possiamo parlare di tecnoumanesimo?

Che cosa si intende per Intelligenza Artificiale (IA)? Una macchina può o potrà avere capacità analoghe all’uomo di riflessione, decisione, autodeterminazione? Quale conflitto tra una visione del mondo governata da leggi deterministiche a fronte di una visione della persona come attore morale libero e responsabile? Interrogativi sostanziali per un futuro che è già l’oggi.

L’IA si basa sulla registrazione di una immensa quantità di dati, di macchine che imparano dall’esperienza (machine learning). Dispositivi capaci di apprendimento continuo, grazie alle tecniche di deep learning, sulla base di una raccolta massiva di dati (big data) e al collegamento al cloud. Un insieme di server remoti che offrono servizi per l’archiviazione e la gestione delle informazioni, ossia un potente hub computazionale in grado di conservare, elaborare ed erogare enormi masse di dati, da cui attingere continuamente per gli aggiornamenti (upgrading). Dal collegamento delle machine learning, poi, le “reti neuronali artificiali” (artificial neural network) composte da elementi che possono lavorare in sincrono – sul modello dei neuroni biologici e delle loro sinapsi – in connessione veloce, istantanea e a bassa latenza quasi come il cervello umano. 

Il termine “intelligenza” non designa qualità propriamente umane conferite alle macchine ma descrive funzioni che rendono alcuni comportamenti delle macchine simili a quelli di un essere umano. Per dirlo con il filosofo Remo Bodei in “Dominio e sottomissione”, la questione non riguarda una similitudine piuttosto l’evidenza che il genere di conoscenza di cui le macchine sono fornite dipende per ora da una nostra delega. È un prodotto umano che si serve di linguaggi che non somigliano a quello naturale. In secondo luogo, non occorre dimenticare – come spesso inavvertitamente accade – che quando parliamo di intelligenza, coscienza, emozioni o lavoro delle macchine usiamo un linguaggio metaforico, attribuendo loro qualità di cui sono prive. Il tipo di lògos, di “coscienza” o di “autocoscienza” di cui sono dotate è costituito da algoritmi, sequenze di comandi da seguire passo per passo come una ricetta per l’esecuzione di determinate operazioni. L’idea di copiare il funzionamento del cervello e della mente umana attraverso l’IA al di fuori del contesto delle relazioni, dell’ambiente e della cultura in cui ciascuno è immerso, ha condotto a delle semplificazioni e a degli errori di valutazione fuorvianti.

Ecco il malinteso di fondo: ritenere che l’agire artificiale significa comportamento intelligente. C’è una separazione tra capacità di risolvere un problema ed esigenza di essere intelligenti nel farlo.

Può ritornare utile richiamare la distinzione tra “definizione forte” e “definizione debole” dell’IA. Per “definizione forte”, o IA cognitiva, si fa riferimento a un modello in cui avviene la simulazione dell’intelligenza con riproduzione di comportamenti indistinguibili da quelli umani fino al riprodurne poteri cognitivi. Questa definizione è sottoposta a critiche in quanto l’intelligenza non può essere entità astratta e logico-formale, bensì concreto e storico essere-nel-mondo di cui fanno parte corporeità ed emotività. Secondo la “definizione debole”, invece, si fa riferimento a un modello ingegneristico in cui avviene l’emulazione dell’intelligenza umana ma, ad esempio, con decisa maggiore rapidità di calcolo. 

Possiamo fare, appunto, una distinzione tra riprodurre il risultato dei nostri comportamenti intelligenti (IA riproduttiva o ingegneristica) e produrre l’equivalente della nostra intelligenza (IA produttiva o cognitiva). Come evidenzia Luciano Floridi, l’IA riproduttiva, in quanto settore dell’ingegneria impegnato a riprodurre il comportamento intelligente, ha avuto un enorme successo. L’IA produttiva, invece, in quanto settore delle scienze cognitive volto a produrre intelligenza, ha rilevato prestazioni ben inferiori a quelle dell’intelligenza umana per cui si può dire che la competizione non sia ancora iniziata.

In sintesi, IA non designa qualità propriamente umane conferite alle macchine ma descrive funzioni che rendono alcuni comportamenti delle macchine simili a quelli di un essere umano.

Nei suoi vari e quotidiani usi dell’IA, la riflessione bioetica e biopolitica non può essere accantonata o ritenuta ancillare. Basta appena porsi alcuni interrogativi che già il cardinale Carlo Maria Martini esponeva nei dialoghi de “Le cattedre dei non credenti”: «Sono così minacciose tutte le tecnologie del virtuale? L’intero cammino verso l’intelligenza artificiale finirà per svalutare il valore della persona, riducendola a pura meccanica? O, invece, saranno i valori dell’uomo a indurre la scienza ad aprire nuovi fronti grazie alle conquiste tecnologiche? [scenario, questo] molto incoraggiante, purché l’intelligenza umana rimanga padrona dei processi.»

Sono questi gli interrogativi che tipizzano le ricerche nell’ambito della bioetica: studio sistematico delle dimensioni morali (inclusa la visione morale, le decisioni, la condotta, le linee guida ecc.) delle scienze della vita e della salute, con l’impiego di una varietà di metodologie etiche in una impostazione interdisciplinare. Sono gli interrogativi che hanno segnato, secondo classica determinazione, l’origine della bioetica che, con gli sviluppi delle scienze e delle tecnologie fino all’IA, si apre a nuovi e impegnativi campi di riflessione. Ovvero nuovi e inquietanti paradigmi sul futuro dell’uomo, come nel caso del transumanesimo, finalizzato a ridisegnare l’identità umana e l’evoluzione della specie nel postumano. 

Una rivoluzione antropologica e quindi una questione antropologica. Transumanesimo, inteso come movimento culturale, intellettuale e scientifico che afferma il dovere morale di migliorare le capacità fisiche e cognitive della specie umana e di applicare le nuove tecnologie all’uomo, affinché si possano eliminare aspetti non desiderati e non necessari della condizione umana come la sofferenza, la malattia, l’invecchiamento, e persino l’essere mortali. Da cui il postumano, vale a dire un essere naturale o artificiale con capacità fisiche, intellettuali e psicologiche “migliori” rispetto ad un “umano normale”. Con capacità cognitive maggiori degli altri; controllo emozionale totale senza sofferenza psicologica; ampliamento della vita senza deterioramento; corpo in concordanza con i propri desideri.

Ecco la necessità di un nuovo umanesimo digitale, di un’etica per le tecnologie digitali. Ovvero, richiamando P. Paolo Benanti, di un’etica per gli algoritmi (algoretica) che possa limitare il dominio e l’autonomia delle macchine (algocrazia). Ciò non significa certo rifiutare i progressi tecnologici ma governarli e abitarli con discernimento. Evitando che la decisione ultima sia in capo solo all’automatismo di un software.

Un umanesimo digitale che non trasforma l’essere umano in una macchina e non interpreta le macchine come esseri umani; che riconosce la peculiarità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per ampliare, non per restringerle. Un umanesimo che sappia distinguersi dalle posizioni apocalittiche e dalle posizioni euforiche, perché confida nella ragione propria degli esseri umani e considera i limiti della tecnologia digitale.

È un nuovo mondo che rileva problematici interrogativi. Come riportato in Agenda Digitale, chi definisce il processo decisionale da attivare per stabilire le “regole del gioco”, volte a garantire il funzionamento – corretto, trasparente e non discriminatorio – di tali sistemi? Nell’ambito di una complessa governance globale prende progressivamente forma la nuova fisionomia del potere (politico ed economico) delle Big-Tech rispetto al gap degli Stati sovrani, che riflette il rapporto asimmetrico tra la rapidità dell’evoluzione tecnologica e la stasi dei tradizionali policy maker rappresentativi del settore pubblico.

Diversi recenti studi hanno evidenziato, poi, potenziali pericoli inerenti a pregiudizi discriminatori con il pervadente uso strumentale della tecnologia volta al condizionamento delle opinioni. Con machine learning sufficientemente potenti, ci saranno poche aziende che avranno in mano l’intelligenza globale del pianeta (global repository of intelligence). Un monopolio di imprese con un possesso illimitato di dati sensibili. Una vera e propria ingegneria sociale. 

Emerge il compito ineludibile della bioetica e il doveroso coinvolgimento di una politica sanitaria che abbia come èthos di riferimento la centralità della persona, “il pensiero critico e l’esercizio consapevole della libertà.” A fronte della necessità di un nuovo umanesimo digitale emerge l’opportunità di costruire nuovi ponti tra filosofia, tecnologia, scienze naturali, teologia, economia e politica. Perché molteplici sono le nuove sfide che ci offrono le tecnologie digitali. 

Come abbiamo riportato nel Parere congiunto Comitato Nazionale per la Bioetica (CNB)  e Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita (CNBBSV) su “Intelligenza Artificiale e medicina: aspetti etici”, bisogna considerare le macchine con IA “automatiche nell’apprendimento ma non autonome”; di supporto alle decisioni umane e non di sostituzione per delega tecnologica; non devono “neutralizzare il paziente” e completano le azioni umane fermo restando il ruolo sostanziale del medico sia sotto il profilo epistemico che etico, per vera comprensione e capacità di empatia.

Emerge la necessità di principi bioetici di riferimento che possono essere sintetizzati in: esplicabilità (il sistema fornisce chiarimenti sulle cause delle decisioni ovvero output; rende conto dei meccanismi di elaborazione e interpretazione dei dati; consente agli umani di valutare appropriatezza o inadeguatezza dei risultati prodotti); intelligibilità (come funziona?); accountability (chi è responsabile nel modo in cui funziona?); inclusione (tutti gli esseri umani sono presi in considerazione e bisogna trarre un beneficio per tutti); responsabilità (progettazione, implementazione e uso IA con trasparenza); giustizia (no a pregiudizi e salvaguardare equità e dignità umana); affidabilità (validazione dei sistemi da Comitati di etica, Codici deontologici per costruttori, programmatori e sviluppatori); sicurezza e privacy (i sistemi di IA non devono arrecare danni e bisogna rispettare la privacy degli utenti).

(Il testo è una sintesi della Relazione che ho svolto al Convegno sull’IA, organizzato dall’OMCeO di Parma)  

Stanford University: AI Index Report 2024

Stanford University: AI Index Report 2024

Welcome to the seventh edition of the AI Index report. The 2024 Index is our most comprehensive to date and arrives at an important moment when AI’s influence on society has never been more pronounced. This year, we have broadened our scope to more extensively cover essential trends such as technical advancements in AI, public perceptions of the technology, and the geopolitical dynamics surrounding its development. Featuring more original data than ever before, this edition introduces new estimates on AI training costs, detailed analyses of the responsible AI landscape, and an entirely new chapter dedicated to AI’s impact on science and medicine.

The AI Index report tracks, collates, distills, and visualizes data related to artificial intelligence (AI). Our mission is to provide unbiased, rigorously vetted, broadly sourced data in order for policymakers, researchers, executives, journalists, and the general public to develop a more thorough and nuanced understanding of the complex field of AI. https://aiindex.stanford.edu/report/

Artificial Intelligence (AI) Act: Council gives final green light to the first worldwide rules on AI

Artificial Intelligence (AI) Act: Council gives final green light to the first worldwide rules on AI

Today the Council approved a ground-breaking law aiming to harmonise rules on artificial intelligence, the so-called artificial intelligence act. The flagship legislation follows a ‘risk-based’ approach, which means the higher the risk to cause harm to society, the stricter the rules. It is the first of its kind in the world and can set a global standard for AI regulation. 

The new law aims to foster the development and uptake of safe and trustworthy AI systems across the EU’s single market by both private and public actors. At the same time, it aims to ensure respect of fundamental rights of EU citizens and stimulate investment and innovation on artificial intelligence in Europe. The AI act applies only to areas within EU law and provides exemptions such as for systems used exclusively for military and defence as well as for research purposes. 

Classification of AI systems as high-risk and prohibited AI practices

The new law categorises different types of artificial intelligence according to risk. AI systems presenting only limited risk would be subject to very light transparency obligations, while high-risk AI systems would be authorised, but subject to a set of requirements and obligations to gain access to the EU market. AI systems such as, for example, cognitive behavioural manipulation and social scoring will be banned from the EU because their risk is deemed unacceptable. The law also prohibits the use of AI for predictive policing based on profiling and systems that use biometric data to categorise people according to specific categories such as race, religion, or sexual orientation. 

General purpose AI models

The AI act also addresses the use of general-purpose AI (GPAI) models. 

GPAI models not posing systemic risks will be subject to some limited requirements, for example with regard to transparency, but those with systemic risks will have to comply with stricter rules. 

A new governance architecture

To ensure proper enforcement, several governing bodies are set up:

  • An AI Office within the Commission to enforce the common rules across the EU
  • scientific panel of independent experts to support the enforcement activities 
  • An AI Board with member states’ representatives to advise and assist the Commission and member states on consistent and effective application of the AI Act
  • An advisory forum for stakeholders to provide technical expertise to the AI Board and the Commission 

Penalties

The fines for infringements to the AI act are set as a percentage of the offending company’s global annual turnover in the previous financial year or a predetermined amount, whichever is higher. SMEs and start-ups are subject to proportional administrative fines. 

Transparency and protection of fundamental rights

Before a high-risk AI system is deployed by some entities providing public services, the fundamental rights impact will need to be assessed. The regulation also provides for increased transparency regarding the development and use of high-risk AI systems. High-risk AI systems, as well as certain users of a high-risk AI system that are public entities will need to be registered in the EU database for high-risk AI systems, and users of an emotion recognition system will have to inform natural persons when they are being exposed to such a system.

Measures in support of innovation

The AI act provides for an innovation-friendly legal framework and aims to promote evidence-based regulatory learning. The new law foresees that AI regulatory sandboxes, enabling a controlled environment for the development, testing and validation of innovative AI systems, should also allow for testing of innovative AI systems in real world conditions. 

Next steps

After being signed by the presidents of the European Parliament and of the Council, the legislative act will be published in the EU’s Official Journal in the coming days and enter into force twenty days after this publication. The new regulation will apply two years after its entry into force, with some exceptions for specific provisions. 

Background

The AI act is a key element of the EU’s policy to foster the development and uptake across the single market of safe and lawful AI that respects fundamental rights. The Commission (Thierry Breton, commissioner for internal market) submitted the proposal for the AI act in April 2021. Brando Benifei (S&D / IT) and Dragoş Tudorache (Renew Europe / RO) were the European Parliament’s rapporteurs on this file and a provisional agreement between the co-legislators was reached on 8 December 2023.

https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/it/pdf

Save the Children: Report “Le equilibriste 2024”

Save the Children: Report “Le equilibriste 2024”

“Oggi più che mai la maternità si trova al centro del dibattito pubblico: ne parlano i media, i decisori politici, vengono avanzate proposte a favore delle madri lavoratrici. Nonostante questo, o proprio per questo, c’è bisogno di comprendere a pieno i motivi per cui nel Paese ci sono sempre meno madri e quale sia la loro condizione nel mondo del lavoro e nella gestione quotidiana della genitorialità.

Il report “Le equilibriste 2024” è incentrato sulle politiche familiari, su ciò che si è fatto in Italia fino ad ora per dare la possibilità a chi lo desideri di diventare madre, e per cambiare le condizioni lavorative delle madri. Offre anche un confronto internazionale, con un’analisi dei percorsi di welfare di alcuni Paesi europei che hanno investito per provare a invertire il trend demografico. “

Download Report: https://s3-www.savethechildren.it/public/files/uploads/pubblicazioni/le-equilibriste-la-maternita-italia-nel-2024.pdf?_gl=1*y6tlh8*_ga*MTg3MzcxNjE5NC4xNzE1ODQ4MTE2*_ga_J4L0VBWH7F*MTcxNTg0ODExNS4xLjEuMTcxNTg0ODE3NS4wLjAuMTMwMjkyODYwMw..*_fplc*TjVjZ05sMkVSUkYwbnA3V0h5SUJRVHo5MlJQRkViNjJQaDQ5UDJ0a2ZiaVYxWFk4NmNoZ29KZiUyRlk1d0c2RWZkbUtZS05MOXpReVRxVEY5clBiMFFBbUFURWpQUHNWY0hGJTJCSVpNRDclMkZIaHlHN1R1dEgxRW5YWnlIeW9lQzRBJTNEJTNE

Persone disabili: insieme per una comunità solidale

Persone disabili: insieme per una comunità solidale

Riservare classi separate per disabili. Una proposta lanciata da un candidato al Parlamento Europeo e che contraddice i fondamentali della nostra democrazia che si riconosce nel principio di uguaglianza della Costituzione. Proprio sul versante della politica è necessaria un’assunzione di responsabilità. Ma l’interrogativo ancor più pressante e decisivo è: quale politica? La necessità è ancor più avvertita proprio in un contesto culturale segnato da una diffusa percezione di dissoluzione di certezze e valori condivisi. Partecipo a diversi incontri su temi di etica sociale e politica. Ebbene, risulta sempre più diffusa l’esigenza di riprendere i valori dell’umano. Il nostro essere cittadini responsabili si realizza nella reciprocità. Ovvero nell’essere “per” gli altri. Prendersi cura senza ghettizzare. Senza escludere. Senza creare categorie di persone da scartare. È la visione comunitaria e solidale della politica che si fa davvero carico delle fragilità e delle vulnerabilità. Di chi, ritenuto estraneo, è abbandonato sul ciglio della strada. 

OC_05_mag_2024_web

L’intelligenza artificiale nel rapporto di cura

L’intelligenza artificiale nel rapporto di cura

Proseguono gli incontri sull’intelligenza artificiale. Ad Acerra con il Consultorio Familiare per poter coniugare nuove tecnologie e umanocentrismo. Ovvero, quali nuove declinazioni della relazione di cura? È possibile tutelare l’umano con la medicina predittiva? Saremo il derivato di un algoritmo? Interrogativi che non possiamo eludere. Come ci ricorda ripetutamente Papa Francesco. Ecco la necessità di incontrarsi per conoscere e governare questa nuova rivoluzione tecnologica. Per abitare consapevolmente nuovi linguaggi e nuovi orizzonti. Perché domani è già ieri!

FAI Aversa: formarsi alla bellezza

FAI Aversa: formarsi alla bellezza

Grazie al Gruppo FAI di Aversa, oggi con studenti e docenti abbiamo dialogato sul senso della bellezza. Nelle sue varie espressioni e in questo nostro tempo. A partire dall’art. 9 della Costituzione, la sua iniziale formulazione e il recente aggiornamento del 2022. Grazie a Maria Giovanna Nappa, coinvolgente promotrice, e ai tanti volontari. Significativo il contributo degli studenti con la guida di appassionati docenti. L’incontro si è realizzato presso la Libreria “Il dono”.