“Dai matrimoni con chatbot ai casi tragici di adolescenti ‘spinti’ oltre il limite: l’IA conversazionale può trasformarsi da gioco a legame parasociale, fino a confondere reale e virtuale nelle persone più vulnerabilii”

BELLINZONA - Sara (nome di fantasia), 19 anni, è appassionata di comunicazione digitale e nel tempo libero crea contenuti per i social con grande entusiasmo. Sa tutto dei trend virali, editing video e strategie per catturare like e condivisioni. Quando ha provato per la prima volta un chatbot di intelligenza artificiale, ha pensato: “Non mi ruba la creatività, mi dà solo una mano a essere più veloce e originale” e così, da un’idea per un post generata in pochi secondi, a un paragrafo da correggere prima di una scadenza, le consultazioni si sono moltiplicate: un suggerimento mattutino per l’outfit della giornata, un aiuto a pranzo per organizzare i pasti e lo studio, serate intere a “chiacchierare” col bot per scaricare stress. Ogni scelta passa prima per un prompt.
Casi estremi di quello che vive Sara mostrano pericoli importanti: persone che si sono sposate con chatbot personalizzati, come la giapponese Yurina Noguchi che, con tanto di abito elegante e una tiara in testa, si è commossa ascoltando le parole del suo futuro marito: un personaggio generato dall’intelligenza artificiale che la guardava dallo schermo di uno smartphone. Risvolti ancora più tragici hanno avuto vicende in cui degli adolescenti influenzati fatalmente, come quella di Sewell Setzer III, il quattordicenne che aveva più volte confidato a un personaggio creato con l’intelligenza artificiale di volersi togliere la vita e morto dopo che il chatbot Character.AI lo aveva incoraggiato romanticamente a “tornare a casa”.
Quello di Sewell Setzer III non è un caso unico. Sono sempre di più le persone che, come Sara, si lasciano attrarre dall’IA per la sua promessa di efficienza immediata e soluzioni geniali, convinti di amplificare i propri talenti digitali senza rischi. Eppure, anche con un uso iniziale utile, il confine verso l’eccesso resta fragile, trasformando un alleato in una nuova forma di dipendenza comportamentale: ansia quando la connessione non è disponibile, ore perse a generare testi o immagini, calo di produttività e relazioni sociali messe in secondo piano. Questo è il quadro della cosiddetta “Generative Artificial Intelligence Addiction Syndrome”, per cui esistono già scale di valutazione come l’AIAS-21, che misurano preoccupazione costante, perdita di controllo e compromissione quotidiana. Studi recenti parlano anche di “AI dependence” e “AIlessphobia”, quel panico di restare senza IA, con adolescenti che delegano persino scelte banali, indebolendo memoria, ragionamento critico e tolleranza alla frustrazione. I meccanismi sono subdoli: questi sistemi attivano circuiti di ricompensa dopaminergica con risposte rapide e personalizzate, simili a social o gaming, ma con un tocco conversazionale che crea legami parasociali.
Nei casi estremi emerge l’”AI psychosis”, dove interazioni intense confondono reale e virtuale, alimentando deliri
in persone vulnerabili.
I segnali di allarme sono sottili ma riconoscibili: pensieri ricorrenti legati all’IA, irritabilità quando non si può accedere, tentativi falliti di limitare l’uso, menzogne per nascondere ore perse o contenuti generati. Col tempo, l’IA diventa non più uno strumento, ma una necessità. Le relazioni sociali, lo studio e il lavoro iniziano a risentirne, e il rischio è di perdere – oltre al tempo – anche autonomia cognitiva e serenità. La psicoeducazione e una psicoterapia cognitivo-comportamentale possono essere efficaci per ridurre l’uso compulsivo e ristabilire un equilibrio, magari integrando momenti per un’alfabetizzazione nel mondo dell’AI per riconoscere manipolazioni e limiti. Se la dipendenza è più radicata, è possibile attivare una presa in carico multidisciplinare, con monitoraggio del tempo online e supporto per traumi da deepfake.
Come accade per molte altre dipendenze, il primo passo è riconoscere il problema. Il secondo è chiedere aiuto, senza vergogna né paura. Per maggiori informazioni o per richiedere un supporto professionale, anche in forma anonima e gratuita, è possibile rivolgersi a Ingrado – Servizi per le dipendenze, Settore Disturbi comportamentali GAT-P, (www.ingrado.ch) e a enti svizzeri per la promozione della salute digitale.