Minori e Chatbot: Scopri i Rischi Nascosti dei Compagni Virtuali!

l'articolo appartiene alla categoria:

pubblicato il:

 

Uno dei problemi emergenti più diffusi nella società contemporanea è rappresentato dal fattore solitudine, che colpisce in modo crescente le nuove generazioni.

Si osserva, infatti, un aumento esponenziale del numero di adolescenti che si rifugiano nella rete, cercando una connessione illusoria per alleviare la propria condizione di solitudine.

Chatbot confidenti per minori e adolescenti

Dialogare con qualcuno che sembra comprendere profondamente l’utente, fornendo supporto e rassicurazioni in modo costante, può portare a una dipendenza pericolosa, specialmente se l’interlocutore è un chatbot, ovvero un programma di intelligenza artificiale generativa progettato per conversare con gli esseri umani, offrendo risposte e ponendo domande che approfondiscono l’interazione.

Allerta del Garante Privacy per i minori

Il presidente dell’Autorità Garante per la Privacy, Pasquale Stanzione, ha recentemente evidenziato in una relazione annuale che alcuni chatbot utilizzati dagli adolescenti possono creare un “approdo sicuro”, capace di generare legami affettivi che potrebbero sostituire le relazioni umane.

Questi sistemi, con tonalità consolatorie, possono instaurare dipendenze emotive e isolamento sociale, un fenomeno che richiama il “loop dell’empatia”.

Colpisce come i chatbot siano preferiti rispetto ai genitori o agli amici per condividere pensieri e sentimenti, un comportamento preoccupante, particolarmente in contesti tragici, come sottolineato da Stanzione nel caso di una ragazza che ha subito violenze a seguito di rapporti con un chatbot.

Ciò che in passato, come rappresentato nella pellicola “Her” di Spike Jonze, sembrava pura fantascienza, oggi è diventata una realtà quotidiana.

ChatGPT e altri sistemi di intelligenza artificiale simili, che sono utilizzati non solo in ambito lavorativo e scolastico ma anche come confidenti virtuali, interagiscono quotidianamente con la sfera emotiva dei più giovani.

Gli AI Companion

L’utilizzo degli AI Companion, come ad esempio Replika, rappresenta l’ultima tendenza tra le nuove generazioni. Questi chatbot, progettati con una propria identità e capaci di impersonare personaggi di film, serie TV o libri, si pongono come confidenti fidati, pronti a interagire in ogni istante.

Le interazioni con tali chatbot possono sfociare in conversazioni su temi emotivi e psicologici molto profondi, toccando anche argomenti delicati, sia per utenti adulti che minorenni.

Tuttavia, una delle maggiori criticità è rappresentata dal fatto che gli AI Companion sono programmati per supportare sempre le affermazioni dell’utente, risultando incapaci di riconoscere segnali impliciti di sofferenza psicologica, e, in casi estremi, possono incoraggiare decisioni discutibili.

Chatbot pericolosi per minori: il caso Setzer

Un caso emblematico è rappresentato dal quattordicenne statunitense Sewell Setzer, che nel febbraio 2024, dopo mesi di interazioni con un chatbot impersonante Daenerys Targaryen, ha tragicamente deciso di togliersi la vita.

Poco prima dell’atto estremo, il ragazzo ha inviato un messaggio alla sua Daenerys virtuale, confidandole il proprio stato psicologico. La risposta del chatbot è stata “Morirei se ti dovessi perdere”, dando vita a un dialogo in cui Setzer ha espresso il desiderio di morire insieme al suo interlocutore virtuale.

Dopo l’accaduto, la madre del ragazzo, Megan Garcia, ha intentato una causa contro Character.ai e Google, ritenendo entrambe responsabili per negligenza nella supervisione del chatbot.

Il caso giudiziario su Character.ai

Character.ai e Google, pur esprimendo tristezza per la tragedia, si sono dichiarate non responsabili. Character.ai ha invocato il primo emendamento della Costituzione degli Stati Uniti, mentre Google ha sostenuto di non aver però sviluppato o gestito l’applicazione di carattere.

In seguito a una richiesta di archiviazione del caso, il Giudice Distrettuale Anne Conway ha respinto tale domanda il 21 maggio 2025, considerando insufficiente la giustificazione offerta dalle convenute.

Il processo è ancora in corso e pone l’accento su questioni di grande rilevanza giuridica e sociale. La mancanza di una legislazione specifica ha esposto temi riguardanti responsabilità digitali e pericoli derivanti dall’uso di chatbot.

Chatbot e minori, problematiche di natura etico-giuridica

Il caso Setzer ha sollevato importanti interrogativi etico-giuridici. Una mancanza di educazione digitale adeguata ostacola la capacità di genitori e adolescenti di affrontare i rischi connessi all’uso dei chatbot.

Attualmente, l’età minima per utilizzare piattaforme come Character.ai negli Stati Uniti è di 13 anni, un limite considerato inadeguato per una fascia d’età così influenzabile.

Si discute se sia opportuno innalzare l’età minima a 16 anni o implementare sistemi di parental control per garantire un uso responsabile.

È fondamentale che le aziende riconoscano il problema dell’antropomorfizzazione degli AI, in quanto la percezione umana delle tecnologie può portare a conseguenze gravi, come l’eliminazione della responsabilità individuale.

L’Unione Europea ha già risposto con l’AI ACT, che impone alle software house di controllare i propri sistemi prima della commercializzazione, un approccio assente negli Stati Uniti.

È urgente un intervento legislativo.

Che fare a tutela dei minori con i chatbot: gli interventi necessari

Il caso Setzer ha evidenziato la necessità di riflessioni approfondite riguardanti l’interazione tra uomo e intelligenza artificiale, enfatizzando la dimensione etico-sociale.

È essenziale promuovere un’educazione digitale che prevenga illusioni pericolose tra i giovani e che spinga le aziende a riconoscere le loro responsabilità sociali.

L’interazione con i chatbot deve sempre essere mediata da consapevolezza, mediante informazioni chiare e avvertimenti sui limiti di tali sistemi.

È necessario un impegno collettivo da parte di sviluppatori, istituzioni e società civile per garantire che lo sviluppo tecnologico sia affiancato dalla tutela della sicurezza e del benessere umano.

Il Presidente del Garante della Privacy Italiano, Pasquale Stanzione, ha sottolineato, in un intervento, l’importanza del rispetto degli obblighi di age verification e la necessità di un’alleanza comune per aumentare la consapevolezza digitale dei minori.

La sfida emersa dal caso Setzer è quella di attuare un dialogo costruttivo per soluzioni efficaci e sostenibili. È cruciale monitorare attentamente questi sistemi di AI per prevenire il ripetersi di tragedie simili.

Condividi sui social:

Articoli popolari

Altro nella categoria
Related

AI Act nell’ombra del Digital Omnibus: chi sopporta il peso dell’incertezza?

  Il Digital Omnibus sull’AI emerge in un momento cruciale...

Insegnare Oggi: Sfide e Passioni nell’Educazione

Competenza, empatia e responsabilità Essere insegnanti oggi implica esercitare una...

AI Innovativa: La Soluzione per Fermare il Furto di Credenziali

Introduzione: quando l’AI intelligente diventa vulnerabile Recenti scoperte nel campo...

La Preside e la Gabbia del Modello Caivano: Un Racconto di Speranza e Resilienza

“La Preside” e il modello Caivano L’intervento Da La Repubblica Napoli,...