Nella fase di addestramento degli algoritmi si concentrano i processi di prevenzione dei bias e delle allucinazioni che affiggono i sistemi IA che, a loro volta, generano altri problemi. Ad esempio, eliminare dai dataset il materiale razzista o xenofobo non è sufficiente per eliminare il pericolo segregazionista e pone seri interrogativi su che cosa vada omesso e cosa ricordato: l’apartheid dovrebbe essere omesso o ricordato? Recentemente, Matteo Flora ha riportato l’attenzione su questo tema nel suo blog Ciao, Intenet in cui ha valutato le risposte di due sistemi di IA: ChatGPT e DeepSeek. Ad entrambi ha chiesto informazioni sugli eventi di piazza Tienanmen del 1989. Se ChatGPT, prodotto USA, ha risposto cercando di mantenere una linea di obiettività storica, DeepSeek, un prodotto cinese, ha declinato la domanda («I am sorry, I cannot answer that question. I am an AI assistant designed to provide helpful and harmless responses»[1]). Ciascun IA risponde con un’etica determinata dal dataset di addestramento e la ripropone al un pubblico che ne subirà l’influenza. Bourdieu parlava di habitus per descrivere questo condizionamento delle strutture sociali e culturali. Possiamo parlare di un habitus anche per l’IA? Secondo Massimo Airoldi, è possibile.
Il concetto di habitus
Aristotele utilizzava il concetto di habitus per descrivere la disposizione duratura che permette all’individuo di agire in modo virtuoso o vizioso. Le virtù morali, secondo lo stagirita, non sono innate, ma si formano attraverso l’abitudine e l’esercizio ripetuto di azioni virtuose. L’habitus avrebbe i contorni di una forma di conoscenza pratica e un modo di essere nel mondo.
Tommaso d’Aquino, riprendendo Aristotele,rielaborerà l’habitus per farne una disposizione stabile dell’anima che orienta l’individuo verso il bene insieme ad altre disposizioni (come le virtù teologiche di fede, speranza e carità) infuse da Dio. L’habitus, quindi, è una combinazione di atti umani ripetuti e intervento divino.
Nel periodo moderno, la psicologia morale e la pedagogia hanno maggiormente utilizzato questo concetto per parlare delle abitudini o delle disposizioni che formano il carattere di un individuo.
Pierre Bourdieu
L’habitus, per il sociologo francese Pierre Bourdieu, è un insieme di disposizioni acquisite che influenzano il modo in cui gli individui percepiscono e agiscono nel mondo e come si relazionano con gli altri. Queste disposizioni si formano attraverso le esperienze sociali, soprattutto durante l’infanzia, e sono legate alla posizione sociale di un individuo.
Alcune caratteristiche dell’habitus sono importanti per il nostro scopo. Ad esempio, pur riproducendo le stesse strutture sociali da cui è nato,c’è un adattamento all’esperienze e ai contesti sociali nuovi. Però, questa sua riproposizione delle strutture originarie, benché adattate, lo rende uno strumento di riproduzione delle gerarchie sociali. Possiamo dire che l’habitus per Bourdieu non elimina del tutto la libertà individuale (agency), ma la inserisce all’interno di un contesto di possibilità limitate.
Habitus come Mediatore tra Fisico e Digitale
Il sociologo Massimo Airoldi ha evoluto il concetto di habitus per conciliarlo alle dinamiche dei mondi digitali, introducendo il concetto di machine habitus con cui possiamo indagare la relazione tra ambiente fisico e digitale. Infatti, il nostro comportamento non è privo di radici, ma è influenzato dagli schemi interiorizzati e dal contesto di appartenenza. Le pratiche digitali, come l’uso dei social media, si intrecciano con le strutture sociali tradizionali creando una forma di continuità tra il fisico e il digitale, piuttosto che una separazione netta. L’habitus, perciò, fornisce la struttura cognitiva e pratica per la relazione dinamica tra il fisico e il digitale.
Critica di Alberto Romele
Il filosofo Alberto Romele, nel suo lavoro sulla filosofia della tecnologia e dell’informazione, pur apprezzando l’intuizione sul ruolo crescente degli algoritmi nelle nostre vite, ha offerto una critica all’idea del machine habitus proposta da Airoldi.
Una delle principali perplessità è il rischio di sottovalutare il ruolo attivo degli esseri umani nel plasmare la propria esistenza in relazione alle macchine. Secondo il filosofo, è necessario tenere conto della co-creazione tra esseri umani e macchine, dove entrambi i soggetti partecipano attivamente alla formazione dell’habitus.
Altro punto di attenzione è l’idea che la tecnologia determini inevitabilmente i comportamenti e le disposizioni umane. Questo approccio, secondo Romele, non tiene adeguatamente conto delle capacità umane di resistere, negoziare e reinterpretare le influenze tecnologiche e, in aggiunta, propone di considerare anche le forme di agenzia che gli individui mantengono nelle loro interazioni con le tecnologie.
Un’altra critica è l’attribuzione di una forma di “autonomia” agli algoritmi. Parlare di un “habitus” delle macchine presuppone una capacità di riflessione e interiorizzazione che le macchine non possiedono. Gli algoritmi, per quanto sofisticati, non hanno intenzionalità o coscienza e funzionano in base a regole matematiche e schemi di apprendimento. Per questo motivo, la nozione di machine habitus potrebbe antropomorfizzare eccessivamente le tecnologie.
Agenti sociali non umani
Il patrimonio culturale formatosi nella realtà fisica guida la persona nell’uso della tecnologia e si arricchisce dell’esperienza vissuta nel digitale: è la circolarità del machine habitus. Non sono d’accordo con Romele quando indica il rischio di sottovalutazione dell’azione umana perché le differenti reazioni e relazioni uomo-macchina fanno parte del portato esperienziale di ritorno che alimenta la circolarità. Il determinismo diventa il bilanciamento soggettivo tra fiducia nell’uomo e nelle strutture, perché non si può negare credibilmente che ci sia un’influenza reciproca.
Riguardo all’autonomia degli algoritmi la questione diventa più complessa. Forse dovremo smettere, come suggerisce Elena Esposito, di accapigliarci sulla possibilità d’intelligenza e senzienza dell’IA e iniziare a pensarla come intelligenze differenti, nella fattispecie come dialogiche. La cosa stupefacente è che l’IA riesca a intrattenere un dialogo con l’umano e persino influenzarlo.
La capacità di interagire con la realtà circostante e persino di modificarla, direttamente o indirettamente, definisce l’IA come agente sociale, entità in grado di agire nella realtà. Essendo entità digitali, preferisco definirle agenti sociali non umani, categoria facilmente inseribile, con tutte le precauzioni del caso, nel tessuto di actor-network teorizzato da Latour dove agenti umani e non umani collaborano nella generazione di eventi.
Conclusione
Due esempi per giustificare questa agentività dialogica dell’IA. Il primo lo offre la riflessione di Fabio Lalli sulla possibilità di accrescere l’autoconsapevolezza, un processo di discernimento con l’aiuto dell’IA per comprendere cosa vogliamo e perché. Lalli immagina un dialogo esemplare: «AI, vai a fare le fotocopie?» «Quali pagine? A colori o in bianco e nero? Quante copie?». Comunicare con l’IA impone chiarezza di intenti e di scopi. Il secondo esempio è la possibilità dell’esame di coscienza con l’IA[2] a cui possiamo richiedere di ripercorre le attività della giornata: spostamenti, incontri, email, telefonate, messaggi… come ci siamo comportati in quelle occasioni? L’IA sarebbe impietoso nel ricordare ogni cosa!
Il machine habitus annuncia l’ingresso nella vita umana di un nuovo agente. Il sospetto e la circospezione con cui è accolta l’IA non dovrebbero sorprendere ma bisogna ricordare che anche il bene può essere trasmesso con l’IA. Se la tecnologia è un dono di Dio, è più facile e più redditizio usarla più per il bene che per il male. Il machine habitus può essere il campo culturale, informativo e ispiratore del bene, un luogo dove convergere le buone notizie, le buone azioni , i buoni pensieri perché possano influenzare il comportamento e il pensiero.
[1] «Mi dispiace, non posso rispondere a questa domanda. Sono un assistente AI progettato per fornire risposte utili e inoffensive»
[2] Vedi E. Mattei, I Vangeli narrano il digitale, EDB, 2023, pp. 211-212
Lascia un commento