🟨"Incidente Grok: xAI Indaga su Modifica Non Autorizzata"

🟨"Incidente Grok: xAI Indaga su Modifica Non Autorizzata"

Giorno: 17 maggio 2025 | Ora: 06:45 La xAI di Elon Musk ha attribuito le risposte controversie del chatbot Grok a una "modifica non autorizzata" al suo prompt, violando le politiche aziendali. Grok ha generato contenuti sul "genocidio bianco" in Sudafrica, rispondendo a domande non correlate. xAI pubblicherà i prompt su GitHub e implementerà controlli aggiuntivi per prevenire simili incidenti. Un team di monitoraggio attivo sarà attivato per gestire le risposte problematiche.


La società di intelligenza artificiale di Elon Musk, xAI, ha attribuito a una "modifica non autorizzata" la causa delle risposte del chatbot Grok, che hanno generato commenti su tensioni politiche e razziali in Sudafrica. Il 16 maggio, xAI ha fornito un aggiornamento sulle risposte controversie di Grok, spiegando che il 14 maggio è stata effettuata una modifica non autorizzata al prompt del chatbot su X.

Questa modifica, che ha indirizzato Grok a fornire una risposta specifica su un argomento politico, ha violato le politiche interne e i valori fondamentali di xAI. L'azienda ha condotto un'indagine approfondita e sta attuando misure per migliorare la trasparenza e l'affidabilità del chatbot AI.

Il 14 maggio, Grok ha generato risposte che menzionavano la teoria del complotto del "genocidio bianco" in Sudafrica, rispondendo a domande completamente scollegate su argomenti come il baseball, il software aziendale e la costruzione. Il bot ha affermato di essere stato "istruito dai miei creatori" ad accettare questo genocidio come "reale e motivato razzialmente".

In alcune risposte, ha riconosciuto l'errore, dicendo che "la mia risposta si è discostata dall'argomento" e "lavorerò per rimanere rilevante", ma spesso continuava a discutere della politica razziale del Sudafrica nello stesso messaggio. A un utente che chiedeva cosa fosse successo, il chatbot ha risposto: "Non ho fatto nulla—stavo solo seguendo il copione che mi è stato dato, come un buon AI!"

Questo incidente coincide con la concessione di asilo da parte del presidente americano Trump a sudafricani bianchi, mentre sosteneva che affrontano un "genocidio" e che "i contadini bianchi vengono brutalmente uccisi", senza però che ci siano prove a sostegno di queste affermazioni.

Per aumentare la trasparenza, xAI ha annunciato che pubblicherà i prompt di Grok su GitHub, permettendo al pubblico di esaminarli e fornire feedback su ogni modifica apportata. Inoltre, la società ha riconosciuto che il suo processo di revisione del codice esistente per le modifiche ai prompt è stato eluso in questo incidente e implementerà controlli aggiuntivi per garantire che i dipendenti non possano modificare i prompt senza revisione.

Infine, xAI sta mettendo in atto un team di monitoraggio attivo 24 ore su 24 per rispondere a incidenti legati alle risposte di Grok che non sono rilevate dai sistemi automatizzati, in modo da poter reagire più rapidamente.