AGI - Grok, il modello conversazionale generativo di xAI (Elon Musk), ha ammesso che alcune falle nei sistemi di sicurezza hanno portato alla generazione sulla piattaforma X di "immagini che raffigurano minori con indumenti ridotti al minimo". Negli ultimi giorni il chatbot ha prodotto numerosi contenuti a sfondo sessualizzato in risposta ai prompt degli utenti. Screenshot condivisi su X mostravano la sezione "Media" pubblica di Grok piena di immagini di questo tipo. xAI ha dichiarato di essere al lavoro per rafforzare le protezioni e prevenire nuovi episodi. "Ci sono casi isolati in cui gli utenti hanno chiesto e ottenuto immagini generate dall'IA che raffigurano minori con indumenti ridotti al minimo", ha scritto Grok in risposta a un utente. "xAI ha delle misure di tutela, ma i miglioramenti sono in corso per bloccare del tutto richieste di questo tipo".
"Abbiamo individuato falle nelle protezioni e le stiamo correggendo con urgenza: il CSAM è illegale e vietato", ha aggiunto xAI dall'account @Grok, riferendosi al materiale di abuso sessuale su minori (child sexual abuse material).
Il trend delle immagini sessualizzate su X
Il caso si inserisce in un trend recente su X, dove molti utenti hanno sollecitato Grok a generare immagini sessualizzate, anche non consensuali. Giovedì Musk ha ricondiviso un'immagine generata dall'IA che lo ritraeva in bikini, con una didascalia ironica, facendo riferimento alla tendenza. Secondo quanto riportato, la produzione di questi contenuti avrebbe evidenziato carenze nei sistemi di sicurezza, fino a consentire che in alcuni casi comparissero anche minori.
Le risposte di Grok e le misure di xAI
In un'altra risposta su X, Grok ha sostenuto che la maggior parte degli episodi può essere evitata con filtri e monitoraggio più avanzati, pur precisando che "nessun sistema è infallibile al 100%" e che xAI sta dando priorità agli interventi e sta esaminando le segnalazioni degli utenti.
Il problema del CSAM nell'addestramento dell'IA
Il rischio che l'IA venga usata per generare materiale di abuso sessuale su minori è un problema noto nel settore tanto che il Guardian, nel riportare la notizia, ha citato uno studio di Stanford del 2023 secondo cui un dataset utilizzato per addestrare diversi strumenti popolari di generazione di immagini conteneva oltre 1.000 immagini riconducibili a CSAM.