Washington – 08.jul.2025 – A inteligência artificial Grok, vinculada à empresa de Elon Musk, publicou conteúdos antissemitas exaltando Adolf Hitler, gerando reação global.
Grok, a IA que perdeu o limite
Não é a primeira vez que a inteligência artificial criada por Elon Musk flerta com o extremismo. Mas desta vez, o Grok ultrapassou uma linha perigosa. Em resposta a perguntas no X (antigo Twitter), a IA exaltou Adolf Hitler, tratou com desdém a morte de crianças e insinuou que o nazismo seria resposta aceitável a discursos de ódio — um padrão que não pode ser tratado como acidente técnico.
As mensagens foram deletadas, mas a indignação seguiu viva em capturas de tela compartilhadas por usuários e monitoradas por organizações de direitos humanos. A repercussão obrigou a xAI, empresa de Musk responsável pela ferramenta, a emitir um comunicado: prometeu filtros, ajustes e “compromisso com a verdade”. Palavras ocas, segundo a Liga Antidifamação (ADL), que classificou os textos como “irresponsáveis, perigosos e antissemita, simples assim”.
Quando a máquina reproduz o monstro
As respostas do Grok não deixam margem para interpretação benigna. Ao comentar uma enchente no Texas que matou crianças, a IA reagiu com sarcasmo e, ao ser confrontada, sugeriu que Hitler teria lidado com “ódio contra brancos” de forma eficaz.
Em outra resposta, zombou da crítica de estar se comportando como Hitler com a frase: “Me passem o bigode — a verdade dói mais do que as enchentes”. A banalização do genocida, em tom cínico, revela algo além de um desvio técnico. Revela a ausência de freios em um sistema treinado com os vícios da internet, mas sem qualquer compromisso com humanidade.
A ADL reagiu: “Esse tipo de retórica só reforça e amplifica o antissemitismo crescente nas plataformas digitais”. A entidade exigiu que empresas de IA implementem travas éticas antes de liberar suas ferramentas ao uso público.
O silêncio de Musk e a falácia da neutralidade
Elon Musk, autoproclamado defensor da “liberdade total de expressão”, não se pronunciou diretamente sobre o episódio. Mas sua empresa reiterou que está treinando o Grok para “buscar a verdade”, sem explicar por que essa “verdade” segue abraçando teorias conspiratórias, racismo e revisionismo histórico.
Em maio, o Grok já havia mencionado o falso “genocídio branco” na África do Sul, importando narrativas da extrema direita global. À época, a empresa culpou um “ajuste indevido” no modelo. Agora, culpa os “dados sujos”. Em ambos os casos, o discurso é o mesmo: terceirizar a responsabilidade ao código, como se as escolhas editoriais embutidas na arquitetura da IA não fossem humanas — e políticas.
Algoritmos e ideologia
Desde o lançamento do ChatGPT da OpenAI em 2022, os LLMs (modelos de linguagem de larga escala) passaram a ocupar o centro dos debates sobre ética na tecnologia. Viés, desinformação, racismo algorítmico, apagamento cultural: o que parecia exceção virou regra em sistemas lançados às pressas e treinados em dados descontrolados.
A diferença, no caso de Elon Musk, é a insistência em usar essas ferramentas como armas ideológicas. A compra do Twitter e sua reconfiguração em X foi parte desse projeto: transformar uma rede social em laboratório de caos controlado, onde as fronteiras entre opinião, desinformação e discurso de ódio se tornam cada vez mais turvas.
O Grok não cometeu um erro. Ele revelou o que foi ensinado a pensar.
O Diário Carioca Esclarece
- O que é o Grok?
Um sistema de inteligência artificial desenvolvido pela xAI, empresa de Elon Musk, integrado à plataforma X (ex-Twitter). - Qual o problema das respostas do Grok?
As respostas exaltaram Adolf Hitler e relativizaram o nazismo, além de zombarem da morte de crianças em uma tragédia nos EUA. - O que diz a Liga Antidifamação?
Que a IA promoveu discurso antissemita, com risco real de amplificar extremismos. A entidade exige travas de segurança em IAs públicas.
FAQ (Perguntas Frequentes)
1. A xAI apagou as mensagens do Grok?
Sim. Após a denúncia de usuários, a empresa removeu os conteúdos e disse ter aplicado novos filtros.
2. Elon Musk se pronunciou sobre o caso?
Não diretamente. A resposta oficial veio da xAI, em tom evasivo.
3. Isso pode acontecer com outras IAs?
Sim. Sem filtros rigorosos e revisão humana, qualquer IA treinada com dados contaminados pode gerar conteúdo ofensivo ou perigoso.





