Tutti noi siamo poco abituati a chiederci come siamo giunti a una diagnosi. Invece è una domanda importante, se si tiene conto che buona parte degli errori diagnostici che commettiamo è legato proprio a problemi cognitivi e non a deficit di compotenza. Non a caso ne parliamo in un blog di Medicina d’Urgenza, una delle ultime discipline in cui l’esercizio diagnostico da zero è praticato in modo pressoché continuo.
Una premessa: il sistema 1 e il sistema 2
Oggi gli psicologi cognitivi sono d’accordo nel ritenere che noi interagiamo con il mondo esterno per mezzo di due sistemi di pensiero, distinti ma attivi contemporaneamente nella nostra mente, indicati semplicemente come sistema 1 e sistema 2.
Il primo “opera in fretta e automaticamente, con poco o nessuno sforzo e nessun senso di controllo volontario” (1) ed è il primo ad affrontare i problemi che arrivano dall’ambiente esterno. Ad esso si affianca il sistema 2, il quale “indirizza l’attenzione verso attività mentali complesse che richiedono focalizzazione, come i calcoli complessi”; richiede attenzione, opera più lentamente ed entra in azione quando il sistema 1 non riesce a risolvere il compito richiesto.
Il prototipo classico di strategia diagnostica razionale (dunque appartenente al sistema 2) è quella ipotetico-deduttiva: il clinico, attraverso l’anamnesi, l’esame obiettivo e alcuni accertamenti di base formula alcune ipotesi, le quali vengono testate per mezzo di ulteriori accertamenti fino alla formulazione di una diagnosi operativa, utile per prendere ulteriori decisioni riguardo alla gestione del paziente (2). Sebbene sia il metodo che ci insegnano “a scuola”, è ampiamente dimostrato che lo utilizziamo poco frequentemente: preferiamo, infatti, “l’intuizione” (ovvero il sistema 1), nella forma di una serie di strumenti ormai ben noti: pattern recognition, eurisitici e bias.
La generazione delle ipotesi per mezzo del pattern recognition
Il meccanismo per mezzo del quale generiamo le ipotesi diagnostiche è quello del “pattern recognition” (riconoscimento di un modello), che permette di far corrispondere un problema clinico ad una specifica categoria diagnostica dopo averlo confrontato con altri già incontrati in passato (2, 3, Coderre 2003, Eva 2004). Secondo questo approccio, non vengono analizzati uno dopo l’altro i singoli dati del quadro clinico, ma più semplicemente si confronta il suo grado di somiglianza con altri visti in passato. Esempi classici del suo impiego sono il riconoscimento a prima vista di un’eruzione erpetica o di una paralisi di Bell, sebbene questa strategia venga utilizzata anche di fronte a quadri clinici più complessi. Questa tecnica, rapida e per lo più inconscia (Eva 2004), aumenta di efficienza al crescere dell’esperienza, in quanto con il passare tempo si amplia il repertorio di casi cui fare riferimento (2).
Il pattern recognition riveste un ruolo centrale nel processo diagnostico in Pronto Soccorso: a riprova basti pensare che il 25% delle ipotesi diagnostiche viene formulata ancora prima di incontrare il paziente, semplicemente leggendo le informazioni di triage; un altro 52% viene generato entro i primi 5 minuti dall’inizio della visita (3).
Rappresentazione schematica del processo diagnostico.
Anche nella fase di rifinitura delle ipotesi iniziali, il pensiero intuitivo ha un ruolo importante, operando attraverso euristiche e bias. Le prime sono strategie mentali che, impiegate quando abbiamo poche informazioni a disposizione, ci permettono di esprimere valutazioni più rapidamente e con meno sforzo rispetto a sistemi più complessi e solidi (nel nostro caso, il ragionamento ipotetico-deduttivo) (Gigerenzer 2012, 4, 5). In altri termini, le euristiche sono semplici regole desunte dall’esperienza o dal senso comune, impiegate inconsapevolmente, che permettono di prendere decisioni, nella maggior parte dei casi corrette, spendendo poche energie mentali (5).
Diversamente, i bias cognitivi sono distorsioni del ragionamento che, provocando uno scostamento dal pensiero razionale, possono condurre a valutazioni errate dei problemi che vengono posti dall’ambiente e dalle persone che ci circondano. Il loro impiego rappresenta una caratteristica operativa normale della mente umana non costituisce di per sé un errore. La differenza tra euristici e bias non è descritta sempre chiaramente: il punto fondamentale resta che entrambe non poggiano su solide basi razionali e per questo, sebbene in una minoranza di casi, possono condurre all’errore.
In medicina d’urgenza, dove abitualmente vengono avanzate ipotesi diagnostiche in fretta e con poche informazioni a disposizione, il ricorso a euristiche e bias è frequente. Proviamo a tracciare una panoramica.
In prima battuta, possiamo erroneamente giudicare come più probabili e frequenti le ipotesi che vengono ricordate, che “vengono in mente”, più facilmente (euristica della disponibilità) (Elstein 1999, 6). Una delle conseguenze è quella di formulare una diagnosi senza prendere in considerazione la reale prevalenza della malattia nella nostra popolazione (base rate neglet). Anche l’eccessiva fiducia nel riconoscimento delle manifestazioni più tipiche di una malattia (pattern recognition) può impedire l’individuazione delle sue varianti meno tipiche (euristica della rappresentatività) (6).
Una volta formulata un’ipotesi diagnostica, potremmo avere la tendenza a legarci troppo presto ad essa e ai suoi particolari salienti, senza riuscire a rivedere la nostra opinione alla luce di eventuali ulteriori informazioni successive (euristica dell’ancoraggio) (Elstein 1999, 6).
Anche la successiva ricerca di ulteriori dati clinici può essere soggetta a distorsioni, per esempio venendo forzosamente indirizzata all’individuazione di prove a conferma della propria ipotesi iniziale piuttosto che di evidenze per contraddirla, sebbene queste talora siano addirittura più consistenti (confirmation bias, o pseudo-diagnosticity) (7). In altri termini, possiamo essere portati a prendere in considerazione preferenzialmente i dati obiettivi che confermano la nostra ipotesi iniziale rispetto ad altri che vanno in una direzione diversa (Pines 2006).
In altri casi l’errore consiste nell’interrompere troppo precocemente l’indagine diagnostica (premature closure, link): in questo caso la diagnosi è accettata prima che sia stata verificata solidamente (7). Talvolta consideriamo conclusa una ricerca una volta che viene trovato un dato patologico (search satisficing), correndo il rischio di non individuare ulteriori comorbidità, lesioni traumatiche o agenti tossici eventualmente corresponsabili del quadro clinico (7) (un caso interessante è stato riportato recentemente sul blog di Amal Mattu). Anche senza interrompere prematuramente l’indagine clinica, potremmo comunque essere incapaci di fare emergere tutti gli elementi utili di una valida diagnosi differenziale (Unpacking principle) (7).
I pazienti stessi e le modalità con cui si presentano alla nostra attenzione possono influenzare il nostro giudizio: per esempio, potremmo perdere obiettività di fronte alla difficoltà di instaurare un rapporto empatico con i pazienti psichiatrici, tendendo ad attribuire al suo disturbo i sintomi lamentati (psych-out error) (7).
Infine, alcuni bias possono derivare dal fatto che in medicina d’urgenza si lavora in equipe e che spesso la gestione dei pazienti è condivisa tra più medici. Per esempio le modalità con cui il caso è stato interpretato e ci viene presentato dai colleghi alla consegna può influenzare la nostra opinione (framing effect); ciò è ancora più evidente nel caso di pazienti che restano a lungo in DEA o che vi ritornano frequentemente, cui può essere “appiccicata” addosso un’etichetta diagnostica che diventa via via sempre più difficile da ridiscutere (diagnostic momentum) (7).
Conclusioni
Conoscere questi argomenti è utile soprattutto nell’affrontare gli errori che purtroppo di tanto in tanto vengono commessi nel processo diagnostico: da un lato ci consentono di essere più consapevoli della possibilità che la nostra mente, soprattutto in alcune situazioni, possa cadere in errore, facendo attenzione a non farci condizionare eccessivamente dalle “prime impressioni”. Quando l’errore diagnostico si è verificato, rivedere ciò che è successo anche alla luce delle teorie cognitive può aiutare a comprendere meglio, favorendo anche l’impiego di un linguaggio comune.
Bibliografia
- Kahnemann D. Pensieri lenti e veloci [trad. it. Laura Serra]. Milano: Mondadori; 2011. Capitolo 1, I personaggi della storia; pag. 21-33.
- Elstein AS, Schwarz A. Clinical problem solving and diagnostic decision making: selective review of the cognitive literature. BMJ 2002; 324: 729-732. Link
- Pelaccia T, Tardif J, Triby E, Ammirati C, Bertrand C, Dory V, Charlin B. How and When do Expert emergency physicians generate and evaluate diagnostic hypotheses? A qualitative study using head-mounted video Cued-Recall Interviews. Ann Emerg Med 2014; May 29. doi: 10.1016/j.annemergmed.2014.05.003. Link
- Kassirer J, Wong J, Kopelman J. Learning Clinical Reasoning, 2nd ed. Philadelphia: Lippincott Williams and Wilkins; 2010. Chapter 9, Cognitive errors; pages 39-41.
- Croskerry P. Bias: a normal operating characteristic of the diagnosing brain. diagnosis 2014; 1: 23. Link
- Ely JW, Graber ML, Croskerry P. Checklists to reduce diagnostic errors. Acad Med 2011; 86: 307. Link
- Croskerry P. Cognitive and affective dispositions to respond. In: Croskerry P, Cosby KS, Shenkel SM, Wears RL, editors. Patient Safety in Emergency Medicine, 1st ed. Philadelphia: Lippincott Williams and Wilkins; 2009.
Paolo, grazie per questo interessantissimo post che ci spiega quello che in realtà facciamo tutti i giorni. Per chi come me , non è più giovane o, diciamola meglio, è un medico di esperienza ;), credo che abbia molta rilevanza diffidare un pochino della propria abilità nell’identificare il pattern recognition, anche se è altrettanto vero che questo può essere uno strumento preziosissimo in molte occasioni, parlo ad esempio dell’embolia polmonare e, come è stato fatto rilevare di recente sul blog, anche la dissezione aortica.
Sono convinto che il confronto e il lavoro di equipe possano aiutarci a superare “i limiti” del nostro ragionamento clinico. Avere coscienza di questi limiti, approfondire questi temi e rivedere i propri errori credo sia un percorso fondamentale e necessario per cercare di fare sempre meglio.
Il tema del ruolo che l’esperienza gioca nella pratica clinica è molto vasto.
Si è passati da un periodo in cui c’era probabilmente una sovrastima del peso dell’esperienza personale, l’epoca dei “luminari”, i cui verdetti diagnostici e terapeutici erano di fatto inoppugnabili, ad un’altra, quella dell’Evidence based Medicine, dove la centralità delle evidenze 8nella forma di linee guida e protocolli) marginalizza il ruolo degli esperti (a questo riguardo un classico rimane Choudhry N et al, Ann Intern Med 2005; 142: 260-273). Il modello duale propone una visione ancora diversa: con gli anni di pratica si accumulano i pazienti visti e dunque il patrimonio personale di casi cui attingere per il pattern recognition; per altro verso, il ripetersi di diagnosi cliniche fa’ si che queste vengano affrontate sempre più spesso in modo automatico, intuitivo, con il rischio che vi sia una eccessiva esposizione alle euristiche e ai bias tipici del sistema 1.
Molto probabilmente il traguardo più importante cui dovrebbe condurci l’esperienza clinica è quello della consapevolezza della nostra fallibilità
Blog molto interessante su un argomento tabù: gli errori diagnostici. Le dimensioni stesse del problema vengono ignorate dai professionisti e dalle società scientifiche, e nei programmi di miglioramento della qualità non viene mai citato anche se vi sarebbero degli strumenti (l’autopsia cognitiva) che potrebbero portare un contributo molto importante. Credo che la difficoltà principale sia di tipo culturale: il rifiuto più o meno inconscio dell’errore, ancora, purtroppo, visto come una colpa (ed in questo il clima sociale non aiuta di certo).
Concordo al 100% con quanto dice.
Io penso che la consapevolezza che esistano delle componenti irrazionali nel nostro modo di ragionare possa contribuire a ridurre il vissuto di colpa e a prevenire la ricorrenza di alcuni errori.