L’AI è davvero «intelligente»? Ma, soprattutto, cos’è? E come funziona? La definizione ad oggi più corretta è quella di «pappagallo stocastico» data nel 2021 da Emily M. Bender, linguista dell’Università di Washington, e Timnit Gebru, informatica e cofondatrice di Black in AI.
AI «pappagallo stocastico»
Pappagallo perché «ripete», senza capire il significato. Stocastico in quanto si basa su automatismi di probabilità. Per la mancanza di «senso» e collegamento con la realtà i LLM generano le cosiddette «allucinazioni». In altre parole «inventano», come dimostrato in testi sviluppati da sistemi AI, riportando citazioni inesistenti. Nel pomeriggio di sabato (13 dicembre 2025) a Damanhur Crea si è cercato di dare delle risposte, ma soprattutto di riflettere intorno agli sviluppi delle nuove tecnologie, ed al loro impatto sociale ed ambientale. Tra i relatori Antonio Santangelo, professore associato di Semiotica e filosofia dei linguaggi, dell’Università di Torino, autore del saggio «Critica di Chat GPT» (edizioni Eleuthera 2025). L’evento è stato organizzato dalla Liber School Aps in collaborazione con l’associazione Vajne, Comunità spirituali di Damanhur, e fa parte del ciclo di seminari «Frontiere della filosofia».
Tra fake news e deep fake
«Che un’affermazione, una frase o un testo dica cose vere o no, prescinde dal fatto che questi contenuti siano stati creati da un essere umano o da una macchina. La questione della verità di un enunciato e di un testo dipende da tantissimi fattori – spiega Santangelo nell’intervista rilasciata a margine del convegno – Il fact-checking è sicuramente importante, ma si possono anche trattare fatti veri collegandoli in maniera insensata, dando quindi lo stesso risultato falso. La questione di come circolano le informazioni sul web o sui social media non dipende dal fatto che siano state costruite da un Bot o da un essere umano. Il punto è la capacità di chi riceve le informazioni di capire, verificare, ragionare, e collegare. Uno dei fattori principali poi è la credibilità di chi la propone e, se la propone una persona o un Bot, certo cambia. Per questo bisognerebbe sempre dichiarare se chi produce l’informazione è un Bot o un essere umano. Secondo Frank Pasquale, autore de “Le nuove leggi della robotica”, bisognerebbe sempre dichiarare anche a chi questi sistemi robotici appartengono, per poter riflettere ad esempio sugli interessi. Ed anche questo dovrebbe essere un automatismo della legge, quello di dichiarare sempre a chi appartiene come del resto succede nel mondo del giornalismo, nel quale si sa chi sono il direttore e l’editore, potendo valutare se avere fiducia o se verificare le informazioni. Nel mare magnum di informazioni attuale, tuttavia credo che la consapevolezza delle persone stia aumentando, ma servono delle regole per sapere sempre se si tratta di un Bot o di una persona che si esprime, e sempre sapere a chi dobbiamo chiedere la responsabilità di ciò che ha detto il Bot».
L’essere umano «un media»
«Se prendiamo la teoria della post-medialità in base alla quale i media come li conoscevamo prima – giornali, radio e tv – erano degli apparati tecnologici molto ben definiti e staccati da noi, oggi con gli smartphone i media sono integrati a noi, ce li abbiamo in tasca – prosegue il professore – E l’essere umano è già diventato un media perché trasmettiamo e diffondiamo dati in continuazione e questi dati vengono gestiti dai proprietari di app e sistemi web che utilizziamo gratis. Si va sempre di più in quella direzione e cioè di rendere noi media perché ai proprietari dei new media interessiamo noi, siamo il prodotto. Il problema oggi è regolamentare questa procedura, perché ciò che diamo noi in cambio di utilizzare gratis questi sistemi, arricchisce queste aziende che però non ridistribuiscono la ricchezza, anzi ci tolgono dei lavori, prendono ciò che noi creiamo e lo riutilizzano. A questo proposito ci sono già cause in tutto il mondo, ad esempio il New York Times si è accorto che l’AI su determinati temi copiava interi articoli senza corrispondere il diritto d’autore. Bisogna creare un nuovo sistema di regole e si è visto quanto dà già fastidio a Elon Musk il nuovo sistema europeo e questo forse ci fa pensare che andiamo verso una direzione giusta perché poniamo dei limiti allo sfruttamento gratuito dei nostri contenuti da parte di queste multinazionali capitaliste. Queste tecnologie poi, come sostengono molti studiosi, servono per la sorveglianza e, quindi, conviene che questi contenuti convergano in poche piattaforme, perché così è più facile esercitare l’azione di controllo sulla popolazione».
Tecno-feudalesimo e “baroni del digitale”
«Queste tecnologie che abbiamo rispecchiano la visione del mondo, i valori, l’etica e la politica di coloro che le producono e anche di coloro che le utilizzano, perché la gente inizia ad avere un po’ di consapevolezza di come funzionano e a cosa servono. La domanda da porsi è come vogliamo creare delle tecnologie che sulla base della nostra visione del mondo e dei nostri valori debbano funzionare affinché ci aiutino a realizzarlo. Per adesso abbiamo degli strumenti che servono per prendere dati su di noi e rivenderli a terzi, per profilarci e venderci prodotti, alimentando il capitalismo che sta distruggendo il pianeta. Ci sono già situazioni in cui quelli che hanno il potere politico ed economico, che usa queste tecnologie, stanno insieme. Tant’è che si parla già di tecno-feudalesimo attraverso questi “baroni del digitale” e di un ritorno indietro verso un’epoca storica che credevamo di avere superato. Ma ci sono anche visioni alternative e, ad esempio, se ne discute al Centro Nexa del Politecnico di Torino, dove 2 volte al mese vengono organizzati seminari a tema, gratuiti e aperti alla cittadinanza», conclude Santangelo.