Quando il paziente arriva con ChatGPT in tasca: la rivoluzione (silenziosa) della “salute artificiale”
C’è un dato che, da solo, dovrebbe far drizzare le antenne a chiunque lavori nella sanità: oggi quasi tutti cercano informazioni mediche online. Non “qualcuno ogni tanto”, ma il 94,2% degli italiani. E fin qui, si potrebbe dire, nulla di nuovo: l’era del “dottor Google” ce la portiamo dietro da anni. Il salto vero, quello che cambia le regole del gioco, è un altro: il 42,8% usa già l’Intelligenza Artificiale generativa per informarsi sulla salute, e tra i giovani (18-34) l’AI ha addirittura superato Google come primo strumento di ricerca. In pratica, non stiamo più “cercando” informazioni: stiamo iniziando a dialogare con un sistema che risponde, spiega, rassicura… e spesso convince.
Questa è la fotografia tracciata dalla ricerca “Salute Artificiale”, realizzata da Sociometrica e FieldCare su incarico di Fondazione Italia in Salute e Fondazione Pensiero Solido: una fotografia che mette nero su bianco una nuova abitudine collettiva. L’AI non è più una curiosità da smanettoni, è diventata un pezzo di quotidianità. E la frattura generazionale è netta: i giovani trattano l’AI come un “consulente sempre disponibile”, mentre gli adulti restano più ancorati al motore di ricerca tradizionale. Il punto però non è chi usa cosa: il punto è che cambia la relazione.
Perché la visita medica, oggi, non è più un momento “a compartimenti stagni”. La ricerca dice che l’85,7% degli italiani consulta internet o AI prima o dopo l’appuntamento. È come se il colloquio con il medico fosse “assediato” dal digitale: lo precede, lo segue, lo commenta. Il 63,9% ha usato informazioni trovate online per verificare diagnosi o terapia; e tra chi verifica, il 62,7% ammette di aver messo in dubbio almeno una volta le raccomandazioni ricevute. Fin qui siamo ancora nel territorio del confronto, del controllo, perfino dell’autotutela (che, se ben gestita, può essere anche positiva). Il problema nasce quando dal dubbio si passa all’azione.
Ed eccolo, il dato più scomodo: il 14,1% degli italiani ha modificato o interrotto una terapia basandosi su ciò che ha letto online, senza consultare il medico. Di questi, il 6% lo ha fatto più volte o sistematicamente. Federico Gelli (Direttore Sanità Welfare e Coesione Sociale Regione Toscana e Presidente onorario della Fondazione Italia in Salute) li definisce “ribelli silenziosi”: non contestano apertamente, non fanno scenate, non alzano la voce… semplicemente decidono da soli. E qui il rischio non è solo clinico (che già basterebbe), ma anche relazionale, organizzativo, legale.
La ricerca descrive bene il passaggio da un modello duale “medico-paziente” a un modello triangolare “medico-paziente-digitale”. Tradotto: nella stanza della visita c’è un terzo interlocutore, anche se non lo vediamo seduto sulla sedia. E spesso è un interlocutore gentile, paziente, sempre disponibile, capace di spiegare senza fretta. Antonio Palmieri (ex membro della Camera dei Deputati e Presidente della Fondazione Futuro Solido) lo dice in modo quasi brutale: l’“empatia artificiale” rischia di essere più seducente di quella umana. E sì, fa sorridere… ma fino a un certo punto. Perché la seduzione, quando incontra la fragilità (dolore, ansia, paura), diventa potere.
Allora che si fa? Si demonizza l’AI? Sarebbe come prendersela con il termometro perché segnala la febbre. La strada realistica è un’altra: governare il fenomeno e integrarlo, con intelligenza e buon senso, nel rapporto di cura. Per il medico significa iniziare a “vaccinare” la relazione: non aspettare che il paziente arrivi con la stampa del chatbot in mano come una prova d’accusa, ma anticipare il tema con naturalezza. Una domanda semplice del tipo “Hai letto qualcosa online o hai chiesto all’AI?” può trasformare un potenziale conflitto in un’alleanza. E poi serve chiarezza: indicazioni scritte, obiettivi della terapia, segnali d’allarme, tempi di rivalutazione. Perché una delle ragioni per cui il paziente va online è banalissima (e umanissima): esce dallo studio e, dopo dieci minuti, gli viene il dubbio. L’AI riempie quel vuoto. Se vogliamo ridurre i “ribelli silenziosi”, dobbiamo ridurre i vuoti, dobbiamo scovare i dubbi negli occhi del paziente e chiarificarli.
Per chi si occupa di rischio e responsabilità professionale, invece, questa tendenza è un campanello che suona forte. Quando aumenta l’autonomia decisionale non tracciata (cioè non condivisa e non documentata), aumenta anche il terreno grigio dove nascono incomprensioni, recriminazioni e – nei casi peggiori – contenziosi. Non perché “la colpa sia di qualcuno”, ma perché la comunicazione diventa più complessa e le aspettative più instabili. E sappiamo bene che, in sanità, molte contestazioni non nascono da un dettaglio tecnico, ma da una frattura di fiducia.
La buona notizia? Questa rivoluzione si può gestire. Anzi: può diventare un’occasione per migliorare l’informazione, l’adesione alle cure e la qualità della relazione. Bisogna riconoscere che la partita è cambiata: non siamo più nell’era in cui il paziente “si informa”, siamo nell’era in cui il paziente negozia la sua visione della realtà con un algoritmo che risponde come un essere umano. E se il sistema sanitario fa finta di niente, l’algoritmo si prende tutto lo spazio che resta.
Foto di kalhh da Pixabay


Foto di congerdesign da Pixabay

Foto di Free-Photos da Pixabay
Foto di Free-Photos da Pixabay