I giovani usano l’Intelligenza Artificiale come supporto psicologico, così non va

Negli ultimi anni, l’utilizzo dell’intelligenza artificiale (IA) come strumento di supporto psicologico ed emotivo tra i giovani ha registrato un aumento significativo. Piattaforme come Character.ai, che permettono di interagire con chatbot basati su IA, sono diventate sempre più popolari tra gli utenti di età compresa tra i 16 e i 30 anni. Skuola.net ha rilevato che il 15% di un campione di 2mila ragazzi utilizza le varie intelligenze artificiali per sfogarsi, confidarsi o chiedere consigli personali. Estendendo l’analisi a chi si rivolge all’IA almeno una volta a settimana, la percentuale sale al 25%
Un esempio emblematico è rappresentato dal bot denominato Psychologist, creato da un utente neozelandese, che ha ricevuto oltre 78 milioni di messaggi in poco più di un anno, di cui 18 milioni solo negli ultimi due mesi.
Perché?
Diversi fattori contribuiscono alla crescente adozione di strumenti basati su IA per il supporto emotivo:
- Accessibilità: la possibilità di accedere a supporto in qualsiasi momento e luogo;
- Anonimato: la garanzia di privacy durante le interazioni;
- Immediatezza: risposte rapide senza tempi di attesa;
- Assenza di giudizio: un ambiente percepito come non giudicante.
Questi elementi rendono l’IA particolarmente attraente per i giovani che cercano un primo livello di ascolto o un supporto immediato.
Limiti
Potremmo anche evitare di verbalizzare quali sono i limiti di questa pratica, ma per quanti magari hanno qualche perplessità è bene dire che sebbene questi sistemi offrano un accesso immediato e senza barriere, può comportare diversi rischi. Uno dei principali riguarda l’assenza di reale empatia. Gli algoritmi possono simulare l’ascolto, ma non provare emozioni né comprendere a fondo la complessità umana. Questo può indurre in errore gli utenti, soprattutto se ragazzi fragili, spingendoli a sovrastimare le capacità del sistema nella sua capacità di interazione.
Altro non banale problema è la perdita del confine tra reale e virtuale. Un utilizzo eccessivo dell’IA per il supporto emotivo può portare alla costruzione di un rapporto illusorio con la macchina. Gli utenti più fragili o isolati rischiano di confondere l’interazione virtuale con una relazione autentica. Questo può accentuare il senso di solitudine, compromettere la capacità di instaurare rapporti interpersonali reali e favorire una dipendenza da interazioni artificiali.
Altra questione riguarda la condivisione di informazioni sensibili, spesso relative alla sfera emotiva e personale. Sicuri di voler permettere ai vostri figli di dare in pasto ad algoritmi e server dati personali e informazioni estremamente delicate?