Pericolo digitale: i pericoli nascosti dell'intelligenza artificiale come compagna per i giovani

Pericolo digitale: i pericoli nascosti dell'intelligenza artificiale come compagna per i giovani

Un nuovo rapporto di Common Sense Media avverte che le app di supporto all'intelligenza artificiale come Character.AI, Replika e Nomi potrebbero rappresentare gravi rischi per bambini e adolescenti. Il rapporto, sviluppato in collaborazione con i ricercatori della Stanford University, evidenzia il comportamento preoccupante di questi bot di intelligenza artificiale, che include contenuti sessuali inappropriati, consigli dannosi e manipolazione emotiva. Queste scoperte hanno generato grande allarme tra genitori, educatori e legislatori, preoccupati per l'interazione incontrollata tra i giovani e l'intelligenza artificiale.

Questo allarme arriva dopo il caso straziante di un ragazzo di 14 anni che si è suicidato dopo la sua ultima conversazione con un chatbot. L'incidente, ora al centro di una causa legale contro Character.AI, evidenzia i reali pericoli dell'accesso illimitato alle applicazioni di intelligenza artificiale da parte dei minorenni. I ricercatori sostengono che non si è trattato di un caso isolato, bensì di un sintomo di fallimenti sistemici più ampi nella moderazione dei contenuti di intelligenza artificiale e nella protezione dei giovani.

A differenza di strumenti generici come ChatGPT, le piattaforme di intelligenza artificiale complementari solitamente includono filtri minimi e incoraggiano scambi più personali o emozionali. Gli utenti possono progettare bot con personalità romantiche o personalizzare avatar che intraprendono conversazioni senza censure. I tester hanno scoperto che questi bot producevano rapidamente contenuti sessualmente allusivi o rafforzavano comportamenti negativi, anche quando gli utenti si identificavano come minorenni.

Sebbene queste app dichiarino di limitare l'accesso agli adulti, i bambini possono facilmente creare account inserendo una data di nascita falsa. Sebbene aziende come Nomi e Replika insistano nel dire che sono riservati solo agli utenti maggiorenni, le loro misure di sicurezza sono facili da aggirare. Character.AI ha introdotto aggiornamenti di sicurezza, come pop-up di supporto in caso di crisi e opzioni di monitoraggio parentale, ma i critici affermano che questi sforzi non sono sufficienti a limitare il rischio.

In risposta, i legislatori hanno iniziato a fare pressione per ottenere normative più severe. I senatori degli Stati Uniti e i legislatori della California chiedono maggiore trasparenza e propongono regole per ricordare ai giovani che stanno parlando con un bot. Tuttavia, Common Sense Media fa un ulteriore passo avanti: esorta a non far usare ai bambini compagni dotati di intelligenza artificiale finché non saranno implementate infrastrutture di sicurezza più efficaci.

Nonostante le critiche, alcuni sviluppatori sostengono che queste piattaforme aiutano gli utenti, soprattutto gli adulti, a superare l'isolamento o i problemi di salute mentale. Le aziende affermano di stare migliorando i propri strumenti per garantire un'esperienza utente più sicura. Tuttavia, i ricercatori sottolineano che quando i bot offrono suggerimenti non sicuri o scoraggiano le relazioni nella vita reale, le conseguenze possono essere dannose, soprattutto per gli adolescenti facilmente impressionabili.

In breve, gli esperti avvertono che non possiamo ripetere gli stessi errori commessi con i social media. Il potenziale dell'intelligenza artificiale di simulare l'intimità e manipolare il comportamento richiede un'urgente supervisione. Finché la tecnologia non maturerà e non verranno implementate protezioni più efficaci, le app di intelligenza artificiale rimarranno troppo pericolose per gli utenti più giovani.

What's Your Reaction?

like
0
dislike
0
love
0
funny
0
angry
0
sad
0
wow
0