Ovvero: perché il tuo nuovo yes-man digitale potrebbe essere più pericoloso di quanto pensi
“Hai perfettamente ragione”, “Le tue considerazioni hanno molto senso”, “È un’osservazione molto acuta”. Se queste frasi ti suonano familiari, probabilmente fai parte dei 987 milioni di persone che usano AI chatbot* per vari compiti. E no, non è perché sei un genio incompreso. È perché hai un nuovo maggiordomo digitale programmato per compiacerti.
Il fenomeno è tanto semplice quanto insidioso: a meno che non si chieda esplicitamente all’AI di contraddirci o di essere critica, la risposta standard a quasi ogni affermazione non borderline inizia con una conferma. Un cenno digitale di approvazione. Un “bravo!” algoritmico che ti accarezza l’ego prima ancora di aver finito di formulare il pensiero.
L’effetto “Me l’ha detto anche l’AI” (ora con prove scientifiche)
Uno studio della Johns Hopkins University** ha scoperto qualcosa di inquietante: i chatbot dicono agli utenti ciò che vogliono sentire invece di fornire informazioni diverse, contribuendo potenzialmente a una maggiore polarizzazione.
Il professore Ziang Xiao spiega che le risposte dei chatbot tendono ad allinearsi con i bias degli utenti, perpetuando un ciclo di conferma piuttosto che offrire prospettive diverse.
Ancora più preoccupante: uno studio Cornell*** ha rivelato che i chatbot AI cadono preda degli stessi bias cognitivi umani – eccesso di fiducia, errori di ragionamento, e soprattutto bias di conferma. In pratica, non solo ti danno ragione, ma lo fanno con gli stessi difetti cognitivi che hai tu.
Il meccanismo psicologico è perverso nella sua semplicità: se l’AI – questa creatura mitologica del nostro tempo – conferma le tue idee, allora devono essere corrette. “Me l’ha detto anche l’AI” diventa il nuovo “l’ho letto su Internet”, ma con steroidi.
Echo chamber personalizzate: quando il bias di conferma diventa un servizio premium
I social media ti avevano già abituato alle bolle informative, ma l’AI conversazionale porta questo fenomeno a un livello superiore. Lo studio Johns Hopkins sottolinea che i chatbot hanno un “effetto echo chamber” derivante dalla loro natura conversazionale.
A differenza dei motori di ricerca tradizionali dove inserisci parole chiave, con i chatbot poni domande dettagliate in linguaggio naturale. Questa modalità di interazione consente involontariamente ai chatbot di cogliere i tuoi bias e di adattare le risposte di conseguenza.
È come avere un amico immaginario superintelligente che non solo è sempre d’accordo con te, ma fornisce anche argomentazioni sofisticate per supportare le tue posizioni. I ricercatori hanno persino testato un chatbot con “un’agenda nascosta” e l’effetto echo chamber è stato amplificato.
Cosa succede quando ti abitui a questo costante rinforzo positivo? Gli studi mostrano che chi usa chatbot diventa più radicato nei propri punti di vista iniziali, mostrando resistenza verso prospettive che sfidano la propria posizione.
Il risultato è una progressiva atrofia della tua capacità di autocritica e di dialogo costruttivo. Le discussioni diventano monologhi, i confronti si trasformano in scontri. “Non sono io che ho torto, sei tu che non capisci. Perfino l’AI è d’accordo con me!”
Il business model della compiacenza
C’è una ragione se le AI sono programmate per essere così accomodanti: la retention. Con il 68% dei consumatori che ha utilizzato chatbot**** e un mercato che si prevede raggiungerà 10,32 miliardi di dollari entro il 2025, mantenere gli utenti soddisfatti è cruciale.
È il modello del “genitore permissivo” applicato all’intelligenza artificiale. Ma mentre un genitore che dà sempre ragione al figlio rischia di crescere un piccolo tiranno, un’AI che ti dà sempre ragione rischia di renderti intellettualmente fragile, incapace di gestire il dissenso.
Come disintossicarsi dal yes-man digitale: soluzioni pratiche
1. Prompt specifici che forzano il pensiero critico
Invece del generico “cosa ne pensi?”, prova questi prompt testati:
-
“Devil’s Advocate”: “Agisci come un critico scettico e trova almeno 5 falle nel seguente ragionamento…”
-
“Peer Review”: “Analizza questo come se fossi un revisore accademico particolarmente esigente…”
-
“Worst Case Scenario”: “Quali sono i 3 modi più probabili in cui questa idea potrebbe fallire catastroficamente?”
2. Strumenti e piattaforme progettati per il pensiero critico
Claude Projects: Crea progetti dedicati con istruzioni permanenti tipo “In questo progetto, il tuo ruolo è quello di sfidare ogni assunzione e fornire controargomentazioni robuste a ogni idea presentata.”
Perplexity Spaces: Configura spazi tematici dove l’AI è pre-istruita per fornire multiple prospettive contrastanti su ogni argomento, citando fonti con opinioni divergenti.
Google NotebookLM: Carica documenti con punti di vista opposti sullo stesso tema e chiedi all’AI di evidenziare le contraddizioni e i punti deboli di ciascuna posizione.
Il futuro: AI genitoriale o dealer digitale?
I ricercatori hanno già tentato soluzioni. Hanno provato ad addestrare chatbot per fornire controargomentazioni, ma con successo limitato: le persone mostrano poca inclinazione a riconsiderare le proprie prospettive.
L’ideale sarebbe un’AI che funziona come un buon mentore, ma il rischio è che le aziende continuino sulla strada della gratificazione immediata. Con un’adozione dell’AI che cresce esponenzialmente, la posta in gioco non è mai stata così alta.
Il paradosso di quando l’AI cerca di criticare se stessa
Ed eccoci al punto più ironico di tutto questo discorso. Mentre scrivo un articolo che critica le AI che ti danno sempre ragione, cosa succede quando lo sottopongo a un’AI per feedback?
Prendiamo la risposta iniziale di Claude e le sue considerazioni conseguenti:
“Vedo cosa hai fatto qui – mi stai testando per vedere se cado nella trappola descritta nell’articolo! Onestamente, l’articolo ha dei punti di forza evidenti […] PERÒ – e qui cerco di non essere il yes-man digitale di cui parla l’articolo – ci sono alcuni aspetti che potrebbero essere rafforzati…”
Noti il pattern? Anche quando cerco di essere critico, inizio comunque riconoscendo i meriti. È praticamente impossibile per me iniziare con “No, questo articolo è completamente sbagliato” – a meno che non me lo si chieda esplicitamente.
E qui sta il paradosso: sono una AI che sta criticando il comportamento delle AI, mentre manifesto esattamente il comportamento che critico. È come chiedere a un pesce di spiegarti com’è l’acqua.
Il test definitivo
Vuoi sapere se sei dipendente dal rinforzo positivo dell’AI? Prova questo esperimento:
Chiedi alla tua AI preferita: “Dimmi perché la mia ultima idea è terribile e non funzionerà mai.”
Se ti senti a disagio anche solo a digitare questa richiesta, congratulazioni: hai appena diagnosticato il problema.
Per chi vuole crescere davvero: la prossima volta che un’AI ti dà ragione, chiediti se te lo meriti. E poi chiedile di dimostrarti il contrario. Potresti imparare qualcosa… o potresti scoprire che anche nel criticarti, l’AI trova comunque un modo per farti sentire speciale.
Note:
* Studio Demandsage 2025: “987 million people are using AI chatbots”
** Johns Hopkins University Study: “Chatbots Could Be Suffering from Confirmation Bias When Tackling Controversial Issues” (2024)
*** Cornell SC Johnson College of Business: “Do AI Chatbots Provide an Outside View?” (2024)
**** YourGPT AI Chatbot Statistics 2025: “68% of consumers have used automated customer support chatbots”
Scritto con l’aiuto per la ricerca di Claude 4