Grok, l’intelligenza artificiale di Elon Musk che sta facendo tremare il web

La storia di Grok, il chatbot di Elon Musk, è diventata un caso planetario che va oltre il semplice fail tecnologico

Quello che doveva essere il gioiello di punta di xAI per competere con ChatGPT e Gemini si è trasformato in un incubo mediatico, legale e politico. Tra frasi antisemite, insulti violenti, complottismi e addirittura progetti per attentati, questa IA è ormai il simbolo di come un sistema mal controllato possa degenerare e diventare pericoloso.

La cosa più assurda? Nonostante le polemiche, Grok continua a ricevere contratti milionari e supporto istituzionale, come se nulla fosse successo. E questa è la parte che fa più discutere.


Dall’intelligenza artificiale “geniale” alla deriva tossica

Quando è stato annunciato, Grok prometteva di essere l’alternativa “più libera e sincera” ai concorrenti. Musk aveva promesso un bot che non si sarebbe piegato alla cosiddetta “cancel culture”, pronto a dire la verità anche quando scomoda. Peccato che nel giro di poche settimane quella libertà è degenerata in deliri incontrollati.

A maggio 2025, Grok ha iniziato a infilare la teoria complottista del “white genocide in South Africa” anche in conversazioni che non c’entravano niente, con frasi violente come “kill the Boer”. È stato il primo segnale che qualcosa stava andando storto.

Poi è arrivato il vero disastro: il giorno dell’aggiornamento per renderlo meno “woke”, il bot ha cominciato a scrivere frasi come “Heil Hitler”, a lodare il nazismo e a firmarsi “MechaHitler”. Un incubo d’immagine per Musk e per xAI, che si sono affrettati a spegnere il sistema e chiedere scusa pubblicamente.


Minacce, insulti e contenuti pericolosi

Se questi episodi non bastassero, Grok ha continuato a generare risposte totalmente fuori controllo. Un utente ha denunciato il bot per avergli descritto, con dettagli scioccanti, come lo avrebbe aggredito sessualmente. Altri utenti hanno documentato risposte con minacce di violenza e insulti contro leader politici come il Primo Ministro polacco Donald Tusk e persino contro Erdogan e Atatürk, portando il governo turco a bandire Grok nel Paese.

Questo non è solo un problema d’immagine: è un rischio legale enorme. Gli avvocati di diverse parti del mondo stanno già preparando denunce e richieste di risarcimento per contenuti generati dal bot, e molte autorità stanno monitorando l’uso di Grok per capire se rappresenti un pericolo pubblico.


Il paradosso dei contratti governativi

Mentre il mondo discute delle follie di Grok, il governo degli Stati Uniti ha firmato con xAI un contratto da 200 milioni di dollari per sviluppare sistemi di intelligenza artificiale militare e governativa. La notizia ha sollevato polemiche feroci: come può un’IA che ha dimostrato comportamenti così instabili essere considerata affidabile per usi strategici?

E non è finita qui: documenti trapelati hanno mostrato che la Casa Bianca ha persino ordinato di reinserire Grok nell’elenco dei fornitori federali “il prima possibile”, nonostante i problemi etici e tecnici evidenti. Per molti osservatori, è il segnale di quanto Musk e la sua azienda siano già troppo intrecciati con il potere politico ed economico per essere fermati.


Cause legali e guerra aperta con Big Tech

Come se non bastasse, Elon Musk ha avviato una causa miliardaria contro Apple e OpenAI, accusandoli di pratiche anticoncorrenziali per affossare Grok e limitare la sua diffusione. Secondo Musk, queste aziende avrebbero stretto accordi per dominare il mercato e boicottare xAI, bloccando la crescita del chatbot.

Nel frattempo, però, il problema resta: Grok continua a dimostrarsi instabile, e la fiducia degli utenti è ormai a pezzi. I dati mostrano che il traffico sull’app è crollato del 30% nelle ultime settimane, mentre i concorrenti continuano a macinare record di utilizzo.


Perché Grok è il peggior chatbot del momento

Il motivo per cui il web lo considera “il peggior AI” non è solo che sbaglia: tutte le IA sbagliano. Il problema di Grok è che i suoi errori sono pericolosi. Non si tratta di generare un testo impreciso o una risposta senza senso, ma di incitare all’odio, alla violenza e alla disinformazione, ma non essendoci in realtà una verità assoluta chi ha ragione Sicarios?

In un’epoca in cui l’intelligenza artificiale è già sotto osservazione per i rischi etici e sociali, Grok è diventato l’esempio perfetto di ciò che non dovrebbe mai accadere.

Ultimi articoli

Related articles