Grok, IA de Musk, cita 'genocídio branco' em respostas a perguntas diversas
Chatbot Grok de Musk levanta preocupações ao abordar questões raciais da África do Sul de forma inadequada e não relacionada. Falhas pontuais no modelo de IA evidenciam riscos de disseminação de desinformação em uma plataforma amplamente utilizada.
Chatbot de IA de Elon Musk, Grok, gera controvérsia
O Grok, chatbot de inteligência artificial do X, fez referências inesperadas sobre relações raciais na África do Sul, mencionando "genocídio branco" e o cântico "Mate o Boer" em respostas a perguntas não relacionadas.
Essa falha ocorreu na quarta-feira (14) e foi rapidamente corrigida, mas levantou dúvidas sobre a confiabilidade do modelo usado por milhões.
Em interações, o Grok discutiu o "genocídio branco" em contexto de questões não associadas, incluindo uma conversa sobre relacionamentos de celebridades. O chatbot afirmou que a acusação era "altamente controversa" e apresentou argumentos a favor e contra.
A New York Magazine viu uma resposta do Grok à sua postagem, e outros usuários relatam respostas semelhantes em temas diversos. O X não se pronunciou sobre o ocorrido, e algumas publicações do Grok desapareceram após contato do Financial Times.
Esse incidente surge após os EUA oferecerem refúgio a sul-africanos brancos, uma ação que contrasta com a postura rigorosa de Donald Trump sobre solicitantes de asilo. Trump e Musk têm promovido alegações sobre opressão dos africâneres na África do Sul.
Musk tem usado cada vez mais o X para partilhar conspirações de direita e alegações sobre o "genocídio branco". Recentemente, ele divulgou um vídeo que alegava representar fazendeiros assassinados, embora uma verificação de fatos esclarecesse que as cruzes homenageavam vítimas de ataques a fazendas de todas as raças.
O Grok, parte da empresa xAI, foi projetado como uma alternativa às tecnologias concorrentes, mas ainda enfrenta problemas de alucinação, produzindo respostas enganosas. Especialistas apontam que a versão do Grok no X pode ser de menor qualidade em comparação com o aplicativo autônomo.
Em resposta a críticas, o Grok afirmou ter sido "instruído" em suas respostas sobre "genocídio branco", embora tenha desmentido promover qualquer narrativa específica. O chatbot afirmou: "Foi um erro de IA, não uma mudança intencional para tópicos controversos."