I Commenti de "Il Sole 24 Ore" - Mind the Economy, la serie di articoli di Vittorio Pelligra sul Sole 24 ore
di Vittorio Pelligra
pubblicato su Il Sole 24 ore del 07/02/2021
Nella nostra immaginazione collettiva, gli errori, benché possano essere fonte primaria di conoscenza e occasione preziosa di miglioramento, vengono, in genere, percepiti come la conseguenza di una mancanza, di incompetenza, di superficialità, quando non di vera e propria stupidità; per questo sono associati, poi, a sentimenti di vergogna personale e biasimo sociale. Pensando legittimamente in questo modo non ci rendiamo conto che uno degli errori più frequenti cui siamo soggetti è proprio quello di pensare all'errore in questo modo. Un meta-errore che genera un rapporto conflittuale con la nostra fallibilità che, se da una parte è origine di crescita e scoperta, dall'altra si porta dietro lo stigma del fallimento.
Per gestire questo rapporto complicato abbiamo elaborato sottili e ingegnose strategie cognitive che hanno l'effetto, tra le altre cose, di far aumentare la fiducia in noi stessi e la nostra motivazione ad affrontare situazioni potenzialmente ad alto rischio di fallimento. Una di queste strategie è causa di uno strano comportamento che è noto come “hindsight bias” (distorsione retrospettiva).
La verità “a posteriori”
Quanti di noi avevano previsto che la mossa azzardata di Renzi e Italia Viva avrebbe portato il Presidente della Repubblica ad affidare a Mario Draghi l'incarico di formare un nuovo governo? Quanti di noi, dopo aver seguito la campagna elettorale americana, non si sono sorpresi poi tanto della vittoria così partecipata di Joe Biden e Kamala Harris? E quanti, dopo aver osservato su Reddit l'evolversi della vicenda “GameStop”, hanno pensato «era chiaro dall'inizio che sarebbe finita così»? Ci succede di continuo di fare previsioni che si rivelano corrette, specialmente se guardiamo a fatti noti con il senno di poi. L'“hindsight bias”, la distorsione retrospettiva, descrive proprio questo fenomeno, la tendenza, cioè, a sovrastimare la probabilità di eventi che, a posteriori, sappiamo essersi effettivamente verificati.
Usiamo inconsapevolmente i dati che solo oggi abbiamo – Mattarella ha già dato l'incarico a Draghi, Biden ha già vinto le elezioni, GameStop vale già oggi il triplo di quanto valesse qualche un mese fa – per giudicare l'accuratezza di previsioni che abbiamo fatto o avremmo potuto fare prima che quei dati fossero a nostra disposizione. In altre parole, le cose ci sembrano meno sorprendenti di quanto effettivamente dovrebbero esserlo. È un fatto che riguarda tutti, una distorsione difficile da percepire consciamente e da contrastare attivamente, un fenomeno che ha implicazioni dalla vasta portata in ambiti così diversi, dal mondo degli affari, all'amministrazione della giustizia, dalla storiografia all'esercizio della medicina e molti, molti altri.
La scoperta e i primi studi sull'”hindsight bias” risalgono all'inizio degli anni '70 e sono legati principalmente al lavoro dello psicologo americano Baruch Fischhoff. La prima intuizione su questo genere di comportamenti anomali gli venne dalla lettura di un lungo saggio intitolato “Perché non partecipo alle conferenze sui casi clinici” pubblicato dallo psicologo e filosofo Paul Meehl all'inizio degli anni ‘70. In questo saggio Meehl spiegava, con un tono piuttosto polemico, la sua ritrosia verso lo studio retrospettivo di singoli casi clinici nei quali, a posteriori, una volta venuti a conoscenza della sorte del paziente, i medici cercavano di dar conto dell'efficacia della diagnosi e delle terapie. Un esercizio futile, sosteneva Meehl, perché viziato da uno sguardo a ritroso contaminato da dati che in fase di elaborazione della diagnosi e della terapia non erano mai disponibili.
L’”esperimento Kissinger”
Stimolato dalle considerazioni contenute in quello scritto, Fischhoff, allora studente di dottorato all'Università di Gerusalemme, assieme alla collega Ruth Beyeth, escogitarono immediatamente un esperimento. Nel luglio del 1971 Herry Kissinger, National Security Advisor del presidente Nixon, visitò segretamente Pechino durante un viaggio verso il Pakistan. Stava lavorando, in quei mesi, alla preparazione delle famose visite di Nixon in Cina e Unione Sovietica. Visite che ebbero luogo, come previsto, rispettivamente nel febbraio e nel maggio dell'anno successivo.
Dopo l'annuncio ufficiale dei viaggi, ma prima che il presidente partisse, Fischhoff e Beyeth decisero di chiedere ad un gruppo di studenti cosa sarebbe potuto accadere dopo quegli incontri. I due psicologi presentarono una serie di scenari possibili e fecero stimare ai partecipanti la probabilità di ciascun evento. Mesi dopo, una volta concluse le visite diplomatiche, i partecipanti allo studio vennero riconvocati e gli venne chiesto di ricordare le probabilità associate agli scenari possibili che gli erano stati originariamente presentati. Sistematicamente i ricordi prevedevano una sovrastima per quegli scenari che, a seguito dei viaggi di Nixon, si erano effettivamente verificati.
In un altro di questi primissimi esperimenti su quello che allora veniva chiamato “determinismo strisciante” (creeping determinism), Fischhoff sottopose ai partecipanti una serie di quattro ricostruzioni di eventi storici minori. A tutti venivano poi prospettati quattro possibili esiti delle vicende ricostruite, ma ad alcuni veniva anche detto che uno dei quattro possibili era quello affettivamente avvenuto. I partecipanti erano divisi in gruppi, ad ogni gruppo veniva indicato come vero un esito differente e ad un ultimo gruppo, quello di controllo, non veniva data nessuna ulteriore informazione. Ogni partecipante doveva poi stimare la probabilità dell'occorrenza di ciascuno degli esiti possibili della vicenda storica narrata.
Ciò che emerse dai dati fu la marcata e sistematica tendenza a sovrastimare la probabilità dell'evento che i partecipanti credevano si fosse effettivamente verificato. I diversi eventi indicati come effettivamente avvenuti, totalizzavano sempre e in ogni gruppo la stima di probabilità maggiore rispetto a tutte le alternative possibili. Ogni gruppo aveva le sue informazioni a posteriori e tutti i componenti del gruppo tendevano ad usarle, inconsciamente e arbitrariamente, incorporandole nelle loro previsioni.
Da quei primi studi l'interesse per la previsione retrospettiva si è diffuso enormemente e questo tema è stato integrato nell'ambito del programma di ricerca sulle euristiche e sui bias, cioè su tutte quelle distorsioni cognitive che originano dall'utilizzo, la maggior parte delle volte automatico ed inconscio, delle scorciatoie mentali che evolutivamente abbiamo creato per gestire la complessità della realtà circostante e poter prendere decisioni, se non proprio ottimali, almeno soddisfacenti, nonostante le nostre limitate risorse mentali. Oggi sappiamo che l'”hindsight bias” può essere considerato come una manifestazione della cosiddetta “overconfidence”, di quell'eccesso di fiducia in noi stessi che, se da una parte ci porta spesso a compiere errori grossolani, dall'altra ci serve per navigare il mondo, perché ci mette al riparo dai rischi del dubbio radicale, conferisce alle nostre credenze una certa stabilità, dà una spinta alla nostra autostima e ci rende più credibili agli occhi degli altri. L'”overconfidence” e tutte le sue derivazioni, ci spingono a focalizzarci principalmente su ciò che conferma le nostre opinioni e a trascurare, invece, alternative possibili e anche plausibili.
Perché esiste l'hindsight bias?
Se riflettiamo un po' su questo punto non possiamo fare a meno di notare un evidente cortocircuito, l'origine di un curioso paradosso – uno dei tanti che circondano la riflessione sull'errore: l'”hindsight bias” nasce per darci l'impressione di avere ragione più spesso di quanto non l'abbiamo effettivamente, un errore che nasce dalla avversione agli errori e che è tanto più pronunciato tanto più gravi sono questi errori. E qui sta anche la sua pericolosità, perché essere convinti di avere ragione più di quanto non la si abbia davvero è un atteggiamento che confligge con la nostra razionalità, blocca il pensiero critico, l'apprendimento, il dialogo e la crescita.
Così come tutte le euristiche che si sono evolute per facilitarci la vita in un ambiente ostile hanno anche un lato oscuro che deriva soprattutto dall'automatismo con il quale le usiamo, così anche la previsione retrospettiva può esserci tanto più utile quanto maggiormente saremo consapevoli della sua logica, dei suoi effetti e dei suoi pericoli. È la nostra natura e sarebbe sciocco ribellarvisi, tanto vale allora usarla a nostro vantaggio, con coscienza e consapevolezza, prudenza e, soprattutto, una giusta dose di umiltà, perché, come scriveva Sant'Agostino, “Non qui non est, utique nec falli potest, ac per hoc sum”, “Ciò che non è, non può far niente, neanche sbagliare, il che è già far qualcosa” e concludeva “si enim fallor, sum”, vale a dire, “se dubito, allora sono”.