Avvenire di Calabria

Abusi sui minori: Telefono Azzurro, “l’AI Csam richiede un’azione immediata”

di Redazione Web

Share on facebook
Share on twitter
Share on whatsapp
Share on telegram
Share on facebook
Share on twitter
Share on whatsapp
Share on telegram


Non perdere i nostri aggiornamenti, segui il nostro canale Telegram: VAI AL CANALE


“Nel mondo quasi 90 milioni di ragazzi e ragazze oggi in vita hanno subito violenza sessuale e più di 1 miliardo di donne e uomini hanno subito tali violenze durante l’infanzia. Per quanto riguarda le nuove forme di violenza e abusi online, i numeri che si riescono a reperire danno ancora più il senso di quale sia lo scenario di rischio all’interno del quale l’infanzia oggi si muove, senza la tutela del mondo adulto e senza la preparazione e la consapevolezza necessaria per evitare le situazioni più pericolose”. Lo rimarca Telefono Azzurro nel “Dossier Abuso 2024” presentato oggi – durante l’evento “Diamo voce al silenzio: ascoltare i bambini e gli adolescenti vittime di abuso sessuale per sviluppare nuovi interventi di aiuto e di tutela” organizzato a Palazzo Chigi in occasione della Giornata internazionale per la protezione dei minori contro l’abuso e lo sfruttamento sessuale – riprendendo il report realizzato dall’Unicef nell’ottobre di quest’anno. Le preoccupazioni riguardano in particolare lo sviluppo dei casi di “Sintetic Child Sexual Abuse Material prodotti attraverso IA generativa. Nella primavera 2023 sono stati rilevati i primi casi di Sintetic Csam ma risultavano essere in maniera evidente materiali prodotti artificialmente. Nell’arco di circa un anno le immagini autogenerate appaiono così simili alla realtà che pure gli analisti più qualificati stentano a distinguerle.
L’AI Csam richiede – per Telefono Azzurro – “un’azione immediata anche perché attraverso essa è possibile produrre contenuti sintetici completamente nuovi o capaci di alterare materiali esistenti”.
Telefono Azzurro evidenzia come le risposte legislative e di tutela dei minori da parte degli Stati – alla luce di quanto previsto dall’articolo 20 paragrafo 3 della Convenzione di Lanzarote – “si siano storicamente concentrate prioritariamente sui Child Sexual Abuse Material quali registrazioni di un reato sessuale contro un bambino reale ma abbiano sottovalutato il ruolo della rete e in particolare dell’AI”.
Telefono Azzurro rimarca come nel corso del 2024 si sia osservato “un vero e proprio salto di qualità nel livello di dettaglio e realismo delle immagini generate da IA. I modelli di IA possono generare immagini pornografiche e di conseguenza Csam fotorealistici”.
“Nell’anno 2023, Inhope, rete internazionale di cui come Telefono Azzurro facciamo parte, ha ricevuto quasi 800mila segnalazioni di contenuti online potenzialmente dannosi, il 70% delle quali relative a materiale pedopornografico illegale. Cifre impressionanti, ma si tratta purtroppo solo di numeri dedotti per approssimazione, perché il primo grande problema che, come comunità internazionale, ci deve far riflettere è quello della mancanza di dati sull’abuso. Mancano dati che siano realistici, trasparenti, coerenti. Solo se partiamo dai dati possiamo avere contezza della situazione reale dell’abuso e delle sue declinazioni, quindi possiamo intervenire con strumenti efficaci e universalmente condivisi. Questo è ancora più vero e urgente se guardiamo allo scenario ancora più oscuro dell’abuso online”, ha dichiarato Ernesto Caffo, presidente di Fondazione Sos Telefono Azzurro.

Fonte: Agensir

Articoli Correlati

Tags: