PSICOLOGA · PSICOTERAPEUTA EMDR · DBR
dr.ssa Roberta Paradisi
dr.ssa Roberta Paradisi

C’è una cosa che osservo da anni, da molto prima che si cominciasse a parlare di intelligenza artificiale. Con l’avvento dei social network, e in particolare di Facebook, iniziai a studiare un fenomeno affascinante e un po’ inquietante: sui social, l’identità non si nasconde. A volte si trasforma, a volte si tradisce, ma raramente mente davvero.
In vari convegni, in Italia e all’estero — tra cui “Social network: crescita o regressione?” (Università Pontificia Salesiana, 2011), “L’adolescente nella realtà virtuale: lo sviluppo dell’identità” (Roma, 2012), e “Social network: growth or regression?” (Bilbao, 2011) — ho approfondito come online cerchiamo spesso di mostrare ciò che vorremmo essere… ma nel farlo lasciamo emergere segnali più autentici di noi stessi di quanto crediamo. Una frase lasciata lì, una canzone condivisa, una pausa troppo lunga tra un post e l’altro: tutto parla di noi. Anche quello che non diciamo.
E oggi? Oggi è l’intelligenza artificiale a mettersi in ascolto. Con strumenti sempre più raffinati, l’AI prova a cogliere quei segnali sottili nei social media: parole, silenzi, abitudini, emozioni.
E qui si apre una domanda che ci riguarda tutti: può davvero una macchina capire come stiamo? Può aiutarci a intercettare un disagio prima che diventi sofferenza?
E, soprattutto… cosa sta succedendo in Italia?
Non si tratta di magia, ma di NLP – Natural Language Processing: tecnologie che analizzano le parole, il tono, la frequenza e persino il silenzio sui social. L’intelligenza artificiale, se ben allenata, può individuare:
Ad esempio, frasi come:
“Non ne posso più.”“Mi sento invisibile.”“Va tutto bene :)” (seguito da giorni di silenzio).
Quando analizzate nel tempo, possono diventare segnali preziosi. In inglese, le AI imparano già da anni a riconoscerli. In italiano, siamo ancora all’inizio.
Negli Stati Uniti e nel Regno Unito, esistono progetti solidi che usano l’AI per:
Alcuni studi hanno dimostrato che le AI possono prevedere l’esordio depressivo fino a 3 mesi prima della diagnosi clinica, semplicemente analizzando il linguaggio usato nei post (Chancellor & De Choudhury, 2020; Kim et al., 2021).
E i risultati sono incoraggianti:
Perché in italiano è più difficile?
Qui entra in gioco il cuore del problema: l’italiano è una lingua più ricca, sfumata, con tante forme espressive non lineari. Inoltre:
Il risultato? Le AI non ci “capiscono” bene. E quindi non possono aiutare davvero, almeno per ora (Cimino et al., 2023).
L’idea di una macchina che “legge nei pensieri” spaventa, lo so. Ma se usata con etica e intelligenza umana, l’AI potrebbe:
Tutto questo senza sostituire la psicoterapia, ma affiancandola.
Perché nessuna intelligenza artificiale potrà mai sostituire un terapeuta umano. Ma può aiutarci ad arrivare prima, ad aprire gli occhi, ad ascoltare meglio.
Il futuro in Italia: serve un’alleanza tra professionisti e tecnologia
Come psicologi, educatori e operatori della salute mentale, abbiamo una grande responsabilità: non restare indietro. Lavorare accanto a sviluppatori, ricercatori, linguisti per costruire modelli AI che conoscano l’italiano… ma anche le emozioni italiane (Tagliaferri & Altamura, 2022).
E magari un giorno poter usare queste tecnologie nei consultori, nelle scuole, nei centri per l’infanzia. Perché ogni parola lasciata online può essere un grido silenzioso, e se lo cogliamo in tempo, possiamo davvero cambiare qualcosa.
Siamo immersi in un mondo digitale che parla di sé continuamente. La vera sfida non è raccogliere dati, ma ascoltare il non detto. E se anche le macchine possono aiutarci a farlo meglio… perché no?
La mia missione, ogni giorno, è restare in ascolto. E questo vale anche nel mondo digitale.
Bibliografia