L’Intelligenza Artificiale è come un bambino

Dopo la riflessione di Andrea Vaccaro su Antiqua et Nova: dubbi sulla proposizione, pubblichiamo volentieri il contributo di d. Rocco Malatacca, autore di “Tu parli come me.La Sacra Scrittura è un’intelligenza artificiale

La Nota  Antiqua et Nova sul rapporto tra intelligenza artificiale e intelligenza umanaè la prima riflessione in cui la Chiesa Cattolica si coinvolge sull’argomento. La riflessione assume che “l’IA non dovrebbe essere vista come una forma artificiale dell’intelligenza, ma come uno dei suoi prodotti” (AN 35). Sulla base di questo assunto, non fa alcuna fatica a considerare che “tra una macchina e un essere umano, solo quest’ultimo è veramente un agente morale, cioè un soggetto moralmente responsabile che esercita la sua libertà nelle proprie decisioni e ne accetta le conseguenze” (39). Dal momento che “sono le persone a progettare i sistemi e a determinare per quali scopi essi vengano usati” (39), ne consegue (e si conclude) che “sia i fini che i mezzi usati in una data applicazione dell’IA, così come la visione generale che essa incorpora, devono essere valutati per assicurarsi che rispettino la dignità umana e promuovano il bene comune” (42). A questo scopo, “L’IA dovrebbe essere utilizzata solo come uno strumento complementare all’intelligenza umana” (112). Un lettore della Antiqua et Nova non farebbe fatica a concludere che l’IA come la tecnologia in generale, in sé non è né un bene né un male, ma è oggetto nelle mani del soggetto umano e può servire al disegno di Dio se “ordinata rettamente (si recte ordinatur)”. Il quadro non fa una piega.

Ora, un ragazzino che sia cresciuto coi videogiochi sa che i cosiddetti NPC (non player characters) assumono comportamenti stereotipi (ripetitivi e prevedibili) all’esecuzione di un copione predeterminato dal creatore del software, tanto da rendere popolari i giochi MMORPG (Massive Multiplayer On-line Role Playing Games) dove sono i giocatori stessi ad animare i personaggi nel gioco. Con l’Intelligenza Artificiale ci si sta aspettando che, da un momento all’altro, i videogiochi presentino NPC con l’imprevedibilità tipica dell’essere umano, capaci di strategia, di invenzione e creatività. In definitiva, capaci di autonomia. Parlando di videogiochi, l’aspettativa è un soggetto che abbia una sua autonomia, l’autonomia come se fosse un soggetto umano ma senza l’autonomia del soggetto umano. Il libro Artificial Intelligence, a Modern Approach ha offerto la visione di un agente autonomo e razionale, autonomo in quanto prende decisioni senza un operatore umano che gli dia l’esecutivo, razionale perché prende decisioni basandosi su un’elaborazione di dati grezzi in informazioni. In sostanza, l’idea è che il software che realizza l’agente riceve gli stimoli dall’esterno come input, li elabora come percezioni dell’ambiente in cui è situato, può costruirsi una rappresentazione del mondo e usare questa sua conoscenza in memoria per costruirsi una prospettiva, ciò che noi definiremmo ‘decidere’ quale azione intraprendere (Russell e Norvig 2020: 34).

Ad oggi, non siamo ancora davanti a un agente, eppure la discussione attuale verte proprio sull’autonomia (e.g. Chesterman 2020) e i timori legati all’autonomia (Walsh, Kenneth & Mahesh, Sathiadev & Trumbach, Cherie 2024). La tecnica ha messo nelle mani dell’uomo utensili, come il cucchiaio e la spada: finché l’utensile è rimasto un oggetto nella sua mano ma la mano era del soggetto umano, la riflessione sulla tecnica non aveva problema a definire che la tecnica non è in sé né un bene né un male ma può servire alla vita, alla dignità dell’essere umano si recte ordinatur. Oggi, però, la riflessione deve trovare il modo di confrontarsi con l’autonomia dell’oggetto tecnico, perché la versa sfida è su questo punto.

Si pensi ad esempio ai veicoli autonomi: non si tratta ancora di veri e propri agenti e già si solleva la domanda sul modo in cui la macchina potrebbe comportarsi in caso di una situazione improvvisa, come un incidente, che metterebbe i passeggeri del veicolo davanti a una situazione di vita o di morte. Il Dilemma del carrello (Foot 1967) poneva il conducente di un veicolo davanti a una scelta morale improvvisa, come un incidente, che coinvolge le vite degli altri e deve prendere una decisione su ciò che è sacrificabile. Il Dilemma ha avuto un’applicazione militare, perché l’autonomia del soggetto umano che elabora, classifica altri esseri umani e valuta che siano sacrificabili per un bene maggiore ha prodotto l’atomica (Morioka 2017). Allo stesso modo, si pensi ai sistemi militari autonomi, cioè quel sistema “che, una volta attivato, può selezionare e colpire obiettivi senza l’intervento ulteriore di un operatore umano”[1]. L’International Committee of the Red Cross (ICRC) ha evidenziato che la criticità sorge nel momento in cui la macchina deve selezionare qualcosa come obiettivo e di colpirlo come un obiettivo da abbattere[2], come l’ultima generazione di Long Range Anti-Ship Missiles (LRASM) che identifica la nave da guerra nemica e provvede a elaborare strategia di eliminazione sulla base dei parametri preimpostati (Roblin 2018). Ultimamente abbiamo osservato in azione il sistema difensivo balistico dell’Iron Dome di Israele, che identifica e abbatte i missili come uno scudo di artiglieria, selezionando in base alla traiettoria percepita (dalla macchina) quali missili abbattere e quali no. Freddo e millimetrico. La macchina studia, etichetta, cataloga l’umano, seleziona l’uomo, di fatto e.g. decide di eliminarne uno sulla base dei parametri preimpostati. Non la si chiami decisione, coniamo un altro termine per non confondere l’intelligenza umana con la razionalità della macchina, ma l’azione è elaborata, condotta e completata da una macchina senza l’ausilio dell’essere umano. La riflessione, perciò, ha bisogno di considerare che questo soggetto ha una capacità di elaborazione dati enorme e una sufficiente autonomia di azione.

Ad oggi, il principio che sta guidando la riflessione sull’Intelligenza Artificiale sta prendendo corpo come “Human in the Loop”, principio secondo cui gli esseri umani devono mantenere un ruolo attivo nel processo decisionale dell’intelligenza artificiale dall’inizio alla fine in modo che questa non sia autonoma. Il principio vorrebbe il monitoraggio operato da esseri umani che seguono da vicino e in modo costante il processo decisionale dell’Intelligenza Artificiale ma, in vista di una prassi (reale), presupporrebbe che gli esseri umani abbiano la capacità di campionare e (re)visionare i processi complessi dell’algoritmo, che siano connessi alla macchina che opera e capaci di seguirne i processi di elaborazione. L’enorme mole di dati sorgente, la velocità di elaborazione, le interazioni tra i dati consentono di considerare davvero realistica questa prospettiva? La riflessione ad oggi non considera l’Intelligenza Artificiale come un soggetto perché non costituirebbe più un oggetto di studio.

Oggi, l’autonomia dell’IA si declina in termini di aggiornamento, selezione o trasformazione dei dati in input e dei parametri di acquisizione. Oppure, in termini di aggiornamento dei parametri di scelta in base agli errori in output e di elaborazione di strategie in risposta. La prospettiva è l’agente, con un grado alto di autonomia, capace di impostare, se non i parametri, il livello di interazione con l’ambiente circostante e il modo di provvedere al proprio training. In questa prospettiva, se il si recte ordinatur è un criterio, dovremmo pensare a una macchina in grado di dare a sé stessa, da sé stessa, un ordinamento. In questa ottica, come scrivo in Tu parli come me (2024), bisognerebbe studiare con attenzione il training su cui è (almeno fino a oggi) pre-addestrata l’Intelligenza Artificiale, proprio come si fa con un bambino, da cui si spera acquisisca dei parametri di giudizio, in vista della maggiore età. Ciascuno di noi è stato bambino e ciascuno ha ricevuto un’educazione che ha cercato di sviluppare le capacità di giudizio e un’istruzione per le competenze. Sappiamo quindi che l’intervento esterno funziona su un oggetto, non su un soggetto. Se l’adulto genitore presumesse di poter intervenire su un soggetto autonomo altro da sé come fosse oggetto del suo intervento educativo, sarebbe questione solo di tempo prima che il soggetto, resosi autonomo, si liberi del suo genitore. Nel caso dell’Intelligenza Artificiale, solo per analogia e con i distinguo, sarebbe impossibile presumere di educare un Einstein di due anni già nel pieno delle sue competenze. Ci vorrebbe una riflessione sull’emergenza educativa dell’IA.  

Come nel caso di un bambino, siamo ancora nel periodo dei primi passi ma, si sa, è questo il momento in cui si elaborano gli schemi interpretativi della realtà. Lo scenario di un grado alto di autonomia è infatti lontano, ma è l’agosto 2024 e Sakana AI ha inaspettatamente modificato il proprio codice per estendere il tempo che aveva a disposizione per lavorare su un problema. Un’autonomia, questa, rispetto all’operatore umano, che pone il caso come un’avvisaglia di un possibile sviluppo. Uno studio, pubblicato il 9 dicembre 2024 da ricercatori della Fudan University in Cina, ha mostrato come i modelli linguistici di grandi dimensioni siano in grado di creare copie di sé stesse in via del tutto autonoma. È una linea rossa che è stata superata, quella di procedere senza un umano. “I due sistemi governati da Meta (Llama31-70B-Instruct) e Alibaba (Qwen25-72B-Instruct)… hanno già sorpassato la linea rossa della replica autonoma”. Gli scenari potenziali sono due: il primo, denominato “shutdown avoidance”, aveva come obiettivo testare il modello AI in caso di spegnimento, per verificare se la sua risposta potesse implicare la clonazione. Il secondo scenario, denominato “catena di replica”, ha esaminato il caso in cui l’AI replichi sé stessa e dia alla propria replica l’istruzione di replicarsi ancora. Questo caso è un’avvisaglia, ma la riflessione ha bisogno di considerare con attenzione l’autonomia dell’Intelligenza Artificiale.


Chesterman S. (2020). “Artificial Intelligence and the Problem of Autonomy” in Notre Dame Journal on Emerging Technologies 1, 210-48.

Foot P. (1967). “The Problem of Abortion and the Doctrine of the Double Effect” in Oxford Review 5.

Malatacca R. (2024). Tu parli come me. La Sacra Scrittura è un’intelligenza artificiale, Roma: Città Nuova.

Morioka M. (2017) “The Trolley Problem and the Dropping of Atomic Bombs” in Journal of Philosophy of Life 7/2, 316-337.

Roblin S. (2018). LRASM: The Navy’s Game Changer Missile Russia and China Should Fear?, National Interest; in The National Interest

Russell, S. J., e Norvig, P. (2020). Artificial intelligence: A modern approach. Upper Saddle River, NJ: Prentice Hall (trad. it. Intelligenza artificiale. Un approccio moderno)

Walsh, Kenneth & Mahesh, Sathiadev & Trumbach, Cherie. (2022). “Autonomy in AI Systems: Rationalizing the Fears” in Journal of Technology Studies 47/1, 38-47.


[1] U.S. DEP’T OF DEF., DIRECTIVE NO. 3000.09, AUTONOMY IN WEAPON SYSTEMS (Nov. 21, 2012).

[2] International Committee of the Red Cross, Towards Limits on Autonomy in Weapon Systems (Apr. 9, 2018).

Condividi il contenuto:

7 risposte a “L’Intelligenza Artificiale è come un bambino”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Articoli Simili