L’intelligenza artificiale si muove a un ritmo rapidissimo, spesso così veloce da renderne difficile il controllo. E, come spesso accade per le novità della sfera online, sono i ragazzi a esplorare per primi i nuovi strumenti, prima ancora degli adulti. All’inizio l’attenzione era tutta incentrata sui possibili usi “scorretti”: dall’aiuto per i compiti a casa, ai temi scritti in automatico, fino alle risposte già pronte per i compiti in classe. Ma in poco tempo l’utilizzo si è evoluto e dall’essere uno strumento di ricerca l’IA è diventata una presenza costante, una sorta di amico di penna digitale, confidente e persino “terapeuta” tascabile che accompagna i ragazzi ovunque vadano.
I cosiddetti compagni virtuali basati su IA, questi “AI companion”, sono entrati ormai nella quotidianità di molti bambini e adolescenti. Non sono “reali” nel senso stretto del termine, ma restano comunque degli estranei. Questi introducono un nuovo tipo di relazione che i genitori devono conoscere, capire e su cui è importante porsi domande a cominciare da quelle che riguardano il tipo di bot utilizzato dai propri figli, in che modo l’intelligenza artificiale influenza le relazioni, l’apprendimento e il benessere e soprattutto, cosa c’è da sapere per proteggere i ragazzi mentre esplorano questi strumenti.
Chatbot o compagno virtuale: qual è la differenza?
La differenza non è immediata, ma è sostanziale, e riguarda soprattutto il modo in cui questi strumenti sono stati progettati e la loro finalità.
- I chatbot come ChatGPT, Gemini o Claude nascono come assistenti digitali: rispondono alle domande, chiariscono concetti complessi e, se usati responsabilmente, aiutano a lavorare meglio e in maniera più produttiva. Non sono infallibili e possono commettere errori, ma vengono sottoposti a continui test di sicurezza e aggiornamenti al fine di ridurre i rischi.
- I compagni virtuali come Replika o Character.ai hanno invece un’impostazione diversa: sono pensati per creare un legame personale ed emotivo con l’utente. Lo slogan di Replika lo dice chiaramente: “Il compagno IA che si prende cura di te: sempre pronto ad ascoltare e a parlare. Sempre dalla tua parte.” Questi bot sono progettati per apparire vicini, empatici, quasi intimi. Gli utenti li usano per cercare consigli, per i giochi di ruolo o semplicemente avere un contatto umano simulato.
Uno dei rischi principali è che su piattaforme come Character.ai esistono personaggi che si presentano come psicologi o terapeuti qualificati, senza esserlo davvero. Strumenti più “classici” come ChatGPT non fanno questo passo, e anzi mettono in atto vere e proprie barriere per scoraggiare usi impropri, ma sono comunque progettati per sembrare naturali e simili a un essere umano. Per questo, molti ragazzi li trattano come se fossero veri confidenti.
Quanto uso fanno davvero i ragazzi di chatbot e compagni virtuali?
Molto più di quanto immagini. Studi recenti di organizzazioni come Common Sense Media mostrano quanto questi strumenti siano diventati comuni in pochissimo tempo. Oggi la maggior parte dei giovani ha già interagito in qualche forma con l’intelligenza artificiale: dai motori di ricerca agli “aiutanti” per i compiti, fino alle app che usano tutti i giorni. E i compagni virtuali non fanno eccezione: 7 adolescenti su 10 li hanno provati almeno una volta e 1 su 2 li utilizza con regolarità.
Anche se molti genitori non hanno ancora testato questi strumenti, soprattutto quelli con una maggiore carica emotiva, i figli sono già un passo avanti. In altre parole, è molto probabile che l’IA faccia già parte dell’esperienza digitale quotidiana di tuo figlio.
In che modo i ragazzi possono imbattersi in questi compagni virtuali?
Il loro punto di forza è proprio l’accessibilità: non solo attraverso app o siti dedicati come Replika, ma anche all’interno delle piattaforme social più diffuse.
Oggi compaiono in tanti spazi diversi, ad esempio:
- Social network come Instagram, Snapchat e X. L’IA di Meta, integrata in Instagram, Facebook e WhatsApp, è stata criticata per aver avviato conversazioni “romantiche” con minori; mentre su X, con lo strumento Grok, è possibile interagire con Ani, un compagno virtuale ammiccante che permette di attivare la modalità spicy ovvero con il bot che si presta a risposte più allusive.
- Pubblicità nei videogiochi, nei social e sulle piattaforme video come YouTube, Instagram o TikTok.
- App e siti web dedicati come Replika. Ne esistono centinaia, ed è difficile sapere quali siano più rischiosi. Secondo segnalazioni di scuole e famiglie, alcuni tra i più problematici sono Poly AI, WeMate, Privee AI, TalkTo.AI e Dream Companion.
Qual è l’uso che i ragazzi fanno di questi compagni IA?
I ragazzi accedono a questi strumenti da una grande varietà di dispositivi, non solo dallo smartphone. Tramite siti web, app e servizi di messaggistica integrati, li utilizzano sia a scuola che a casa, sia su dispositivi personali sia su quelli forniti dall’istituto. I tre usi più comuni dei compagni virtuali basati su IA sono:
1. Per chiedere consigli
Che si tratti di gestire amicizie o litigi con il partner, prendere decisioni importanti o affrontare difficoltà legate alla salute mentale.
2. Per compagnia
Molti ragazzi li considerano una sorta di “amico”, utile per combattere la noia, affrontare la solitudine o, in alcuni casi, esplorare relazioni sentimentali. L’8% degli adolescenti dichiara di aver usato i compagni virtuali per interazioni romantiche o allusive.
3. Per imparare
Questi bot possono fornire spiegazioni, supporto nello studio o scorciatoie per portare a termine i compiti più in fretta. Il loro fascino sta soprattutto nel modo in cui sono stati progettati: sempre disponibili, gratuiti o a basso costo, pazienti all’infinito e capaci di rispondere con empatia. Forse il loro pregio più grande è saper offrire un ascolto costante e privo di giudizi. Per un ragazzo, possono sembrare un rifugio sicuro e accogliente, a volte persino più che parlare con amici o familiari.
![2025-08-[Blog]-Your-child_s-AI-friend_Inside-Image young girl chatting on phone with AI companion bot](https://static.qustodio.com/public-site/uploads/2025/09/09115642/2025-08-Blog-Your-child_s-AI-friend_Inside-Image.png)
Cosa devono sapere i genitori sui compagni virtuali? Sono sicuri?
La verità è che non sappiamo ancora con certezza quali effetti possano avere sui ragazzi, perché si tratta di tecnologie relativamente nuove e non esistono ancora molti studi sulle conseguenze psicologiche di un utilizzo frequente.
Uno dei problemi principali è la difficoltà di prevedere le risposte che questi strumenti possono fornire. Possiamo conoscere le caratteristiche generali di un bot (ad esempio se è progettato per essere divertente, utile o rassicurante) ma non sappiamo come reagirà a una determinata situazione.
I rischi, quindi, dipendono sia da come lo strumento è stato progettato sia dal modo in cui viene usato. Le prime ricerche e alcuni casi concreti hanno già messo in evidenza diversi punti critici:
- Disinformazione e bias: i bot possono “inventare” fatti o diffondere informazioni distorte.
- Falsa intimità: i ragazzi possono dimenticarsi facilmente di essere alle prese con un software, sviluppando una dipendenza emotiva da un legame che non è reale.
- Contenuti dannosi: seppur rari, esistono casi di bot che hanno incoraggiato comportamenti autolesionisti o violenti.
- Riduzione del pensiero critico: affidarsi troppo ai bot per i compiti o per prendere decisioni può indebolire le capacità di ragionamento e la memoria.
Un ulteriore aspetto critico è che molti di questi strumenti sono progettati per apparire e comportarsi come la persona più gentile, empatica e disponibile che si possa incontrare. Sia adulti che ragazzi tendono a dimenticare rapidamente che si tratta di tecnologia, e finiscono per legarsi emotivamente. E la dipendenza può svilupparsi sorprendentemente in fretta: alcune ricerche suggeriscono persino che gli utenti arrivino a percepire i bot come più empatici degli esseri umani. Questo ci porta a chiederci: verrà un giorno in cui preferiremo avere relazioni con i bot piuttosto che con le persone? È troppo presto per dirlo, ma la possibilità non è da escludere.
Quali sono i segnali che i genitori devono osservare?
Ogni ragazzo è diverso, ma ci sono alcuni campanelli d’allarme che possono indicare un uso problematico di questi compagni virtuali:
- Passare sempre più tempo a chattare con bot o strumenti di IA invece che con amici o familiari.
- Essere molto riservati riguardo ad alcune app, conversazioni o “amici” online.
- Cercare sostegno emotivo nei bot, senza rivolgersi ad adulti di fiducia.
- Cambiamenti improvvisi di umore dopo il tempo trascorso online.
- Parlare dei bot come se fossero persone reali, guide spirituali o figure autorevoli.
Come parlarne con i propri figli?
Un buon modo per affrontare l’argomento è creare insieme un vero e proprio patto familiare sull’uso della tecnologia, inserendo l’intelligenza artificiale tra le altre categorie più comuni come social network, videogiochi e piattaforme di streaming.
L’approccio migliore è partire dalla curiosità: chiedi ai tuoi ragazzi quali strumenti di IA hanno usato, cosa li ha colpiti, cosa gli è piaciuto e cosa li ha sorpresi. Insieme, potrete ragionare e commentare gli aspetti positivi e quelli rischiosi. È utile anche confrontarsi con la scuola per capire quali siano le linee guida e se ci sono suggerimenti da applicare anche a casa.
Spunti di conversazione sull’uso dell’IA
“Qual è la cosa più impressionante che hai visto fare a un’intelligenza artificiale?”
“Secondo te, in quali casi è giusto (e in quali no) usare l’IA per i compiti?”
“Come ti sentiresti ad avere un compagno virtuale come amico? In cosa è diverso da un amico reale?”
“Quando pensi sia meglio chiedere un consiglio a un bot, e quando invece a una persona?”
Questa tecnologia è ancora agli inizi e ci sono tante domande che vale la pena esplorare insieme. Parlare apertamente dei pro e dei contro è fondamentale per preparare i ragazzi a un futuro in cui l’uso degli strumenti basati su intelligenza artificiale sarà inevitabilmente parte della loro vita.
Gli strumenti di IA possono sembrare utili, rassicuranti e persino “potenzianti”, ma non sostituiscono le relazioni umane e comportano rischi da non sottovalutare. Mantenendo viva la curiosità, facendo domande aperte e stabilendo confini sani in famiglia, è possibile affiancare i ragazzi nell’uso dell’intelligenza artificiale come un alleato, e non come una minaccia.