IamNotFreud
Paolo Assandri
0  /  100
keyboard_arrow_up
keyboard_arrow_down
keyboard_arrow_left
keyboard_arrow_right

L’intelligenza artificiale al posto dello psicologo? Rischi e vantaggi da valutare (attentamente)

Sei a casa, stanco dopo una giornata pesante. Hai mille pensieri in testa, ma non te la senti di parlarne con nessuno, forse perché non vuoi “disturbare” o forse perché ti sembra troppo difficile spiegarti. Allora apri un’app e scrivi “mi sento a pezzi”e in un attimo arriva una risposta gentile, accogliente, rassicurante. Non da un amico, né da un terapeuta, ma da un’intelligenza artificiale.

Qualche tempo fa questo sarebbe sembrato fantascienza, ma è già realtà per milioni di persone. E forse è già successo anche a te che stai leggendo.

Molte persone, infatti, si rivolgono a strumenti digitali per affrontare momenti difficili. Chatbot, app per la salute mentale, assistenti virtuali: sono disponibili 24 ore su 24, non chiedono spiegazioni, non giudicano, e rispondono subito. Ma possiamo davvero affidarci a queste tecnologie per prenderci cura della nostra salute mentale e del nostro benessere emotivo?

Perché sempre più persone parlano con un’IA quando stanno male?

Ci sono motivi molto comprensibili:

  • È sempre disponibile, anche di notte o nei weekend
  • Non costa nulla (o poco) e, di conseguenza, non crea stress “economico”
  • Sembra più facile aprirsi: non c’è imbarazzo, né paura di essere giudicati
  • Può offrire strumenti utili per gestire momenti difficili: esercizi di respirazione, diario emotivo, tecniche per calmarsi

In momenti in cui ci si sente soli, confusi o sopraffatti, l’idea di “parlare” con un’IA può sembrare una soluzione pratica, e a volte, persino salvifica. Ma è davvero la stessa cosa di un incontro con uno psicologo? Ma soprattutto: quali sono i rischi?

I possibili vantaggi (se usata correttamente)

L’intelligenza artificiale può essere un valido alleato se viene integrata in percorsi di consulenza psicologica o di psicoterapia. Ad esempio, può aiutare una persona a:

  • Ripassare tecniche già imparate in terapia (es. esercizi di respirazione, visualizzazioni)
  • Organizzare pensieri e emozioni prima di un incontro con lo psicologo o con lo psicoterapeuta
  • Trovare compagnia in momenti di solitudine emotiva (con il rischio, però, che diventi l’unico interlocutore e contribuire, così, ad incrementare la solitudine)
  • Ottenere informazioni psicoeducative su ansia, depressione, attacchi di panico (che però potrebbero non essere corrette o potrebbero essere parziali o inadeguate)

Molti studi mostrano che un uso consapevole può effettivamente ridurre l’ansia o migliorare la capacità di autoregolazione emotiva, ma, e qui viene il punto delicato,  solo se usata come strumento, non come sostituto di un percorso psicologico o psicoterapeutico.

Quando l’IA diventa un rischio (e non ce ne accorgiamo)

Ci sono situazioni in cui l’intelligenza artificiale può diventare parte del problema, anziché della soluzione:

  1. Potrebbe dare consigli sbagliati o pericolosi
    Un chatbot non è un terapeuta. Non conosce la tua storia, il tuo contesto emotivo, le tue ferite profonde. Potrebbe darti suggerimenti sbagliati, o addirittura dannosi, in situazioni di crisi.
  2. Non riconosce le emergenze
    Un’IA non è in grado di valutare con precisione stati psicologici critici come depressione grave, pensieri suicidari, dissociazione o panico intenso. Può rispondere con frasi generiche che, invece di aiutare, possono fare sentire ancora più soli.
  3. Crea un’illusione di relazione
    Molte persone sviluppano un legame affettivo con il chatbot. Lo sentono vicino, comprensivo, sempre disponibile. Ma questa “relazione” manca di reciprocità, profondità, cura reale. È un legame che non cambia, non cresce, non restituisce.
  4. Può portare a evitare il confronto con le emozioni vere
    Usare l’IA ogni volta che si sta male può diventare un’abitudine per evitare il contatto con l’altro, o con le parti più sofferenti di sé. In questo modo, invece di elaborare le emozioni, si rischia di congelarle.
  5. Questione privacy: i dati sono al sicuro?
    Molte app conservano le conversazioni. Alcune le usano per migliorare i propri algoritmi. Altre, purtroppo, hanno politiche poco trasparenti. Questo significa che pensieri molto intimi, magari condivisi in momenti vulnerabili, potrebbero essere archiviati o analizzati.

E se lo usa mio figlio/a?

È importante sapere che molti adolescenti e giovani adulti stanno usando chatbot e app di supporto psicologico, spesso in segreto. Lo fanno perché si sentono soli, non compresi, o perché temono il giudizio degli adulti.

L’IA, per loro, può sembrare un rifugio sicuro: sempre disponibile, mai deludente, mai arrabbiata. Ma proprio per questo rischia di sostituire esperienze fondamentali per crescere, come affrontare i conflitti, tollerare il rifiuto, chiedere aiuto nel mondo reale.

Come adulti, possiamo fare due cose:

  1. Conoscere noi stessi questi strumenti, per accompagnare senza giudicare
  2. Parlare apertamente con i nostri figli, facendo domande curiose e ascoltando davvero, senza giudizio e con empatia.. Ad esempio, potremmo chiedere: “Hai mai usato una chat con l’intelligenza artificiale per parlare di come ti senti? Com’è andata? Ti ha aiutato?”

Il dialogo nasce quando l’altro non si sente sotto esame. In fondo, forse è proprio per questo motivo che molte persone, in particolare i giovani adulti e gli adolescenti, cercano supporto in un’Intelligenza artificiale: per condividere i loro problemi senza sentirsi giudicati.

Qualche domanda utile per riflettere

Per usare in modo più consapevole l’IA, ti invito a porti (o porre) queste domande:

  • Uso l’IA quando non ho voglia di parlare con nessuno oppure penso perché penso che nessuno possa capirmi?
  • Uso l’IA perché sto cercando una conferma e non voglio che le mie idee vengano messe in discussione?
  • C’è qualcosa che non riesco a portare nelle relazioni vere? Mi sento al sicuro solo se non ho nessuno in carne ed ossa di fronte a me?
  • Potrebbe essere utile parlarne con un professionista?

L’IA può essere utile, ma non può sostituire la relazione umana

L’intelligenza artificiale può essere uno strumento prezioso, se usata con consapevolezza, ma non può restituirti lo sguardo di chi ti ascolta con cura, la voce che vibra insieme alla tua, la presenza che ti supporta e che ti vede e ti ascolta anche nel silenzio.

In un mondo che corre, può essere comodo rifugiarsi nella risposta immediata di un algoritmo, ma è nel tempo, nella relazione vera, che avviene il cambiamento più profondo.

Se questo articolo ti ha fatto riflettere, condividilo con qualcuno che potrebbe averne bisogno. E se senti che l’IA sta diventando la tua unica voce amica, forse è il momento di cercarne una umana, vera, presente.

Bibliografia

Abd‑Alrazaq, A., Alajlani, M., Alalwan, A., Bewick, B. M., Gardner, P. and Househ, M., 2020. Effectiveness and safety of using chatbots to improve mental health: systematic review and meta-analysis. Journal of Medical Internet Research, 22(7), p.e16021.
Available at: https://doi.org/10.2196/16021 (Accessed: 4 October 2025)

Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., Gooding, P. and D’Alfonso, S., 2023. To chat or “bot” to chat: ethical issues with using chatbots in mental health. Digital Health, 9, p.20552076231162193.
Available at: https://doi.org/:10.1177/20552076231183542 (Accessed 24 Settembre 2025)

Dohnány, S., Fiala, M., de Oliveira, E. and Arent, L., 2025. Technological folie à deux: Feedback loops between AI chatbots and mental illness. arXiv preprint arXiv:2507.19218.
Available at: https://arxiv.org/abs/2507.19218  (Accessed: 5 October 2025)

Chin, H., Song, H., Baek, G., Shin, M., Jung, C., Cha, M., Choi, J. & Cha, C. (2023) ‘The potential of chatbots for emotional support and promoting mental well-being in different cultures: mixed methods study’, Journal of Medical Internet Research, 25, e51712. Available at: https://doi.org/10.2196/51712 (Accessed: 9 October 2025)

Autore: Paolo Assandri è un Counselling Psychologist (registrato presso HCPC e British Psychological Association), uno Psychotherapist (UKCP) e uno Psicologo-Psicoterapeuta (Ordine degli Psicologi del Piemonte). Vive e lavora a Londra dove offre counselling e psicoterapia.

Nota degli Autori:
Questo articolo non si intende come sostituto di alcuna terapia medica e/o psicologica. Il suo obiettivo è quello di informare per migliorare il senso di benessere individuale. Qualora sentiste bisogno di supporto medico e/o psicologico, rivolgetevi ad un professionista sanitario (medico, psicologo o psicoterapeuta). Gli autori, i produttori e i consulenti impegnati alla realizzazione di queso articolo non sono responsabili delle scelte e delle azioni del lettore in seguito alla lettura di questo testo.

Relazioni Tossiche: quando le relazioni ci feriscono