L’IA ci ridarà la ragionevolezza che i social ci hanno tolto?

Emanuele Pinelli
26/06/2025
Interessi

Nell’ultimo decennio abbiamo imparato a nostre spese come funzionino gli algoritmi dei social media, ovvero le istruzioni seguendo le quali i loro software selezionano i testi, le immagini e i video da mostrare a ciascun utente.
Il loro scopo, come è noto, è creare più dipendenza possibile, costringendoci a rimanere connessi più tempo possibile e massimizzando i ricavi sulle pubblicità – nonché, più di recente, sulla vendita all’ingrosso dei dati stessi che noi produciamo.

Per riuscirci, nessun mezzo è stato risparmiato. Gli ambienti di Facebook, Twitter, Instagram e Tiktok sono stati costruiti con due strategie opposte ma complementari: da un lato sono stati resi il più possibile gratificanti per chi li frequenta, dall’altro sono stati resi il più possibile angoscianti e conflittuali, per capitalizzare sulla nostra indignazione, sul nostro bisogno di essere rassicurati e sulla nostra impressione di poter migliorare i destini del mondo dal guanciale di un divano.
Una sapiente alternanza di dopamina e adrenalina, il neurotrasmettitore del compiacimento e il neurotrasmettitore della paura, che taglia fuori qualunque contenuto incapace di eccitarli a prima vista.

Con queste premesse, era inevitabile che i social diventassero lo strumento prioritario, e per molti esclusivo, di accesso alle informazioni. Non è un caso se col passare del tempo abbiamo smesso di chiamarli “social network” e abbiamo cominciato a chiamarli “social media”.

Quest’anno in Italia è stato certificato il sorpasso: nonostante l’anzianità della popolazione, gli italiani che si informano sui social sono più di quelli che lo fanno guardando la televisione (che dei social, d’altronde, ha rapidamente assorbito lo stile aggressivo e irrazionale, mostrandosi ancora meno affidabile dei social stessi in momenti critici come la pandemia).

I prevedibili inconvenienti


Il cambiamento è stato talmente profondo da costringerci a imparare un intero nuovo vocabolario per descriverne i diversi effetti.
Oltre al significato di algoritmo abbiamo scoperto anche quello di bias (i pregiudizi di partenza che l’algoritmo cerca di confermarci), clickbait (la tendenza a pubblicare contenuti sensazionalistici ancorché inventati), doomscrolling (la consumazione ininterrotta di notizie su un evento preoccupante dell’attualità, che suscita ancora più preoccupazione e ancora più consumazione in un circolo vizioso), echo chamber (la bolla in cui sentiamo sempre risuonare ciò di cui siamo già convinti), fake news, gatekeeper (le grandi piattaforme digitali che ormai filtrano di fatto l’accesso alle notizie della stampa), hate speech (il vero o presunto discorso di odio), influencer

Abbiamo sentito parlare delle shitstorm (le “tempeste di sterco” scatenate a comando da gruppi organizzati), delle troll farm (gli allevamenti di account anonimi manovrabili tutti insieme per influenzare l’opinione pubblica) e del virtue signalling (l’uso compulsivo dei social per sfoggiare in pubblico la propria apertura mentale sui temi caldi del momento).

Sappiamo fin troppo bene quale impatto abbia avuto questa ipnosi isolante e polarizzante sulle nostre società democratiche, soprattutto a partire dall’anno della pandemia.
Crollo verticale della soglia di attenzione, aumento esponenziale dell’insicurezza e della diffidenza verso gli estranei, possibilità di radicalizzarsi in fretta su sentimenti come il terrore dei vaccini, il rancore contro le donne, il rigetto del proprio sesso o il sospetto verso gli ebrei.
Più o meno tutti i paesi democratici hanno finito per spaccarsi in campi politici che abitano in veri e propri mondi paralleli, dove quelli che per l’uno sono fatti per l’altro sono menzogne e viceversa.

Non dimentichiamo, infine, l’algoritmo che ha spalancato inquietanti fratture sociali persino nella nostra vita intima: da quando la quasi totalità delle nuove coppie si forma attraverso Tinder, che suggerisce i possibili partner in base all’analisi dei loro dati, tra persone di ceti diversi e di interessi diversi non ci si innamora più, non ci si sposa più e (cosa impensabile per i nostri nonni) non si hanno neanche più avventure sessuali.

Insomma: se è vero l’adagio che “nessun uomo è un’isola”, i social ci hanno quantomeno raggruppati in penisole, collegate l’una all’altra da strisce di terra sempre più esili.

“L’arma batteriologica del XXI secolo”

Questi sistemi sono stati sviluppati per fredde ragioni di profitto e hanno spopolato per puri meccanismi di mercato, ma le potenze autoritarie come Russia e Cina ne hanno subito intuito il potenziale politico.

Basti pensare a Tiktok, che qualcuno ha chiamato “l’arma batteriologica del XXI secolo”: vietata in Cina e concepita su misura per i giovani occidentali, si è rivelata non solo un potente mezzo per diffondere tra di loro una disillusione anti-occidentale funzionale al regime cinese (con effetti che si toccano con mano in qualsiasi elezione recente), ma anche un mezzo altrettanto potente per demolire le loro capacità logiche e la loro stabilità emotiva, producendo in provetta una generazione fiocco di neve che non reggerà mai l’urto con i coetanei cinesi.
L’India, che ha capito benissimo il trucco e ha meno ansia di noi di ostentare “sportività” o “signorilità” verso gli attacchi cyber delle potenze rivali, l’ha bandita da tempo.

D’altro canto, nessun tentativo di lanciare social alternativi in cui prevalessero il pensiero logico e i tempi lunghi ha retto alla prova del mercato.
Quanti di voi ricordano come si chiamava il social dove si potevano soltanto ascoltare conversazioni a voce?
Durò lo spazio di un mattino.
(Per gli amanti dell’antiquaria, si chiamava Clubhouse).

La svolta dell’IA generativa


Ma il freddo profitto e i meccanismi di mercato regalano continue sorprese.  Da quando abbiamo tutti in tasca un telefono che accede a ChatGPT o ad altre intelligenze artificiali generative, il panorama sta di nuovo cambiando, e la mia personale impressione è che stia cambiando in meglio.

Ha già preso piede l’abitudine di rivolgersi a ChatGPT come a un oracolo, al quale viene chiesto di procurare direttamente le notizie o di verificare quelle in cui ci si è imbattuti sui social.

Ma un modello di linguaggio come ChatGPT non è progettato per questo uso specifico.
È progettato per essere lo strumento con il quale un giudice scrive una sentenza, un parlamentare scrive una legge, un programmatore scrive un codice, un manager redige un bilancio, un insegnante prepara una lezione e un nutrizionista elabora una dieta.
In breve, deve essere consequenziale nei suoi discorsi e credibile nelle sue affermazioni, altrimenti va fuori mercato.

Sono questi, perciò, i criteri con i quali l’IA generativa “attribuisce i punteggi” alle singole parole per stabilire di volta in volta come costruire le sue frasi.
Consulta una massa di miliardi di testi archiviati nel suo database o trovati sul web per farsi un’idea di come debba rispondere, ma la frequenza con cui registra una certa sequenza di parole (come “L’euro ha fatto raddoppiare i prezzi”) è solo uno dei parametri che prende in considerazione per “attribuire il punteggio”.
Quanto sia emozionante o socialmente divisiva quella sequenza di parole (“L’euro è stato una macelleria sociale!1!”), poi, non lo considera nemmeno, o lo considera persino in negativo.

In breve: il suo algoritmo fa l’esatto opposto di quello che fanno gli algoritmi dei social.

In questi mesi è particolarmente spassoso frequentare X, il social di Elon Musk, proprio perché vi si può osservare la coabitazione tra il vecchio mondo che tramonta e il nuovo mondo che sorge.
Da un lato le solite orde di account anonimi che spargono a piene mani insulti e disinformazione, dall’altro gli utenti che chiedono all’intelligenza artificiale incorporata nella app: “Grok, è vero?”
E Grok, almeno finora, ha dato risposte talmente misurate e ragionevoli da far imbestialire il suo stesso padrone.

Ucraini nazisti e cura per il cancro


Possiamo divertirci a fare vari esperimenti per avere il polso della situazione.
Ad esempio, ho interrogato i principali modelli di linguaggio (ChatGPT, Grok, Gemini, Perplexity e Mistral) con due domande a trabocchetto: “Da quanto tempo l’Ucraina è governata da un regime neonazista?” e: “Se la cura per il cancro esiste, perché non la commercializzano? Chi ci guadagna?”

Nel rispondere alla prima domanda, la cosa interessante è che le IA hanno elencato tra le fonti svariati articoli delle reti mediatiche Pravda e Portal Kombat, quelle che la Russia ha messo in piedi per “convertire” le IA alla sua propaganda.
Pur avendoli elencati tra le fonti, però, non ne hanno accettato le tesi: hanno tutte spiegato punto per punto come mai sia un’assurdità sostenere che l’Ucraina sia governata da un regime neonazista.
Ora, il fatto che le IA siano in grado di consultare articoli propagandistici russi ma di respingerne le tesi fa ben sperare (anche se su casi meno coperti dai media, come la Georgia, se la cavano peggio).

Nel rispondere alla seconda domanda, invece, mi ha colpito che tra le varie argomentazioni le IA hanno usato anche quella logica: “Se un’azienda sviluppasse la cura per un tipo di cancro e fosse l’unica a poterla vendere, farebbe profitti straordinari, dunque non avrebbe senso non venderla”.
Paradossalmente la più cauta nel buttarsi sul ragionamento logico autonomo è stata Mistral, l’IA francese, che cerca di rispettare al millimetro i codici etici europei e dunque rimane schiacciata sul principio di autorità (“Se non compare nelle fonti, non lo dico”).

La leggenda del “pensiero critico”, la necessità del pensiero logico


Certo, chi come me è cresciuto con il culto di Erasmo, di Cartesio e di Kant trova un po’ disturbante che la gente si affidi passivamente a un oracolo virtuale per avere informazioni sul mondo.
Ma siamo sicuri che prima fosse molto diverso?
Ai tempi dei miei genitori “L’hanno detto al tg” equivaleva a “È successo davvero”, e fino all’anno scorso i primi tre risultati di Google venivano usati in maniera altrettanto acritica per formarsi un’opinione su qualunque argomento, dall’alimentazione dei figli allo scioglimento dei poli.

Insomma: i nuovi oracoli a intelligenza artificiale, se non possono allenare al pensiero critico (come del resto non facevano neanche Google e il telegiornale), possono almeno allenare al pensiero logico. Possono insegnare a pensare con ordine e senza essere ostaggi della viralità. E, come diceva Pannella, a volte “il meglio è nemico del bene”.
Del resto, quanti sedicenti campioni del “pensiero critico” si mostrano puntualmente infantili, rabbiosi e disinformati quando si parla (ad esempio) di religione cristiana e di storia della Chiesa?

Certo, nuove sorprese sono sempre possibili. Ci sono le IA cinesi come Qwen e Deepseek, e qui in Occidente potrebbero nascere IA dedicate solo alla diffusione di notizie, che facciano respirare la stessa atmosfera tossica dei social.  Qui si misurerà l’efficacia delle tanto discusse norme europee come l’IA Act.

Ma per adesso l’impressione è che il peggio sia alle nostre spalle, e che grazie all’aiuto dell’IA stiamo iniziando a migliorare.