AI e salute mentale: come i social media possono rivelare segnali di disagio (anche in italiano)

ragazzo sui social

Quando la tecnologia incontra l’emozione, può nascere una nuova forma di ascolto.

C’è una cosa che osservo da anni, da molto prima che si cominciasse a parlare di intelligenza artificiale. Con l’avvento dei social network, e in particolare di Facebook, iniziai a studiare un fenomeno affascinante e un po’ inquietante: sui social, l’identità non si nasconde. A volte si trasforma, a volte si tradisce, ma raramente mente davvero.

In vari convegni, in Italia e all’estero — tra cui “Social network: crescita o regressione?” (Università Pontificia Salesiana, 2011), “L’adolescente nella realtà virtuale: lo sviluppo dell’identità” (Roma, 2012), e “Social network: growth or regression?” (Bilbao, 2011) — ho approfondito come online cerchiamo spesso di mostrare ciò che vorremmo essere… ma nel farlo lasciamo emergere segnali più autentici di noi stessi di quanto crediamo. Una frase lasciata lì, una canzone condivisa, una pausa troppo lunga tra un post e l’altro: tutto parla di noi. Anche quello che non diciamo.

E oggi? Oggi è l’intelligenza artificiale a mettersi in ascolto. Con strumenti sempre più raffinati, l’AI prova a cogliere quei segnali sottili nei social media: parole, silenzi, abitudini, emozioni.

E qui si apre una domanda che ci riguarda tutti: può davvero una macchina capire come stiamo? Può aiutarci a intercettare un disagio prima che diventi sofferenza?

E, soprattutto… cosa sta succedendo in Italia?

Cosa può rilevare l’AI nei social: emozioni, parole, silenzi

Non si tratta di magia, ma di NLP – Natural Language Processing: tecnologie che analizzano le parole, il tono, la frequenza e persino il silenzio sui social. L’intelligenza artificiale, se ben allenata, può individuare:

  • un cambiamento improvviso nello stile comunicativo,
  • l’uso ricorrente di parole legate alla tristezza, alla solitudine o all’inadeguatezza,
  • frasi che sembrano banali, ma che nella sequenza diventano indizio di disagio.

Ad esempio, frasi come:

“Non ne posso più.”“Mi sento invisibile.”“Va tutto bene :)” (seguito da giorni di silenzio).

Quando analizzate nel tempo, possono diventare segnali preziosi. In inglese, le AI imparano già da anni a riconoscerli. In italiano, siamo ancora all’inizio.

I progetti internazionali: dove l’AI già aiuta

Negli Stati Uniti e nel Regno Unito, esistono progetti solidi che usano l’AI per:

  • identificare episodi depressivi su piattaforme come Reddit, Twitter, Instagram,
  • prevedere comportamenti a rischio tra adolescenti,
  • intervenire in tempo reale con chatbot o risorse di emergenza.

Alcuni studi hanno dimostrato che le AI possono prevedere l’esordio depressivo fino a 3 mesi prima della diagnosi clinica, semplicemente analizzando il linguaggio usato nei post (Chancellor & De Choudhury, 2020; Kim et al., 2021).

E i risultati sono incoraggianti:

  • più precisione nelle diagnosi precoci,
  • maggiore attenzione alla prevenzione,
  • supporto a psicologi, insegnanti e caregiver.

Perché in italiano è più difficile?

Qui entra in gioco il cuore del problema: l’italiano è una lingua più ricca, sfumata, con tante forme espressive non lineari. Inoltre:

  • abbiamo meno dati linguistici digitali disponibili rispetto all’inglese,
  • usiamo slang regionali, giochi di parole, doppie negazioni,
  • spesso non verbalizziamo in modo diretto il nostro disagio emotivo.

Il risultato? Le AI non ci “capiscono” bene. E quindi non possono aiutare davvero, almeno per ora (Cimino et al., 2023).

Potenzialità enormi, ma serve prudenza (e umanità)

L’idea di una macchina che “legge nei pensieri” spaventa, lo so. Ma se usata con etica e intelligenza umana, l’AI potrebbe:

  • offrire uno strumento di prevenzione precoce nelle scuole,
  • aiutare genitori ed educatori a intercettare segnali deboli,
  • fornire supporti personalizzati e su misura.

Tutto questo senza sostituire la psicoterapia, ma affiancandola.

Perché nessuna intelligenza artificiale potrà mai sostituire un terapeuta umano. Ma può aiutarci ad arrivare prima, ad aprire gli occhi, ad ascoltare meglio.

Il futuro in Italia: serve un’alleanza tra professionisti e tecnologia

Come psicologi, educatori e operatori della salute mentale, abbiamo una grande responsabilità: non restare indietro. Lavorare accanto a sviluppatori, ricercatori, linguisti per costruire modelli AI che conoscano l’italiano… ma anche le emozioni italiane (Tagliaferri & Altamura, 2022).

E magari un giorno poter usare queste tecnologie nei consultori, nelle scuole, nei centri per l’infanzia. Perché ogni parola lasciata online può essere un grido silenzioso, e se lo cogliamo in tempo, possiamo davvero cambiare qualcosa.

Un nuovo ascolto è possibile

Siamo immersi in un mondo digitale che parla di sé continuamente. La vera sfida non è raccogliere dati, ma ascoltare il non detto. E se anche le macchine possono aiutarci a farlo meglio… perché no?

La mia missione, ogni giorno, è restare in ascolto. E questo vale anche nel mondo digitale.

Bibliografia

  • Chancellor S., De Choudhury M. (2020). Methods in predictive mental health: social media and suicide prevention.
  • Kim J. et al. (2021). Detecting depression in social media posts with transformer-based models.
  • Cimino A. et al. (2023). AI applications in mental health: A systematic review of ethical concerns.
  • Tagliaferri L., Altamura A.C. (2022). Intelligenza artificiale e salute mentale: limiti e prospettive nella lingua italiana.
  • Lorusso, N., Paradisi, R. (2011). Social network: crescita o regressione? Atti del Convegno Siat. Università Pontificia Salesiana.
  • Paradisi, R. in coll. con Lorusso, N. (2011). Social network: growth or regression? TA World Conference, Bilbao.
  • Paradisi, R. in coll. con Lorusso, N. (2012). L’adolescente nella realtà virtuale: lo sviluppo dell’identità. I Convegno Nazionale delle Associazioni Italiane di Analisi Transazionale, Roma.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *