Esta imagen del sitio web de XAI muestra un campo de búsqueda para el chatbot de inteligencia artificial el jueves 5 de mayo de 2025. Crédito: AP Photo
Al igual que su creador, la inteligencia artificial de Elon Musk, Chatbot Grok, estaba preocupado por la política racial sudafricana en las redes sociales esta semana, publicando afirmaciones no solicitadas sobre la persecución y el “genocidio” de las personas blancas.
Su compañía, Xai, dijo el jueves por la noche que la causa era una “modificación no autorizada” al chatbot.
Eso significa que alguien, la compañía no dijo quién, hizo un cambio que “ordenó a Grok a proporcionar una respuesta específica sobre un tema político”, que “violó las políticas internas y los valores centrales de Xai”, dijo la compañía.
Un día antes, Grok siguió publicando públicamente sobre “genocidio blanco” en respuesta a los usuarios de la plataforma de redes sociales X de Musk, que le hicieron una variedad de preguntas, la mayoría no tenía nada que ver con Sudáfrica.
Un intercambio fue sobre el servicio de transmisión Max Revivir el nombre de HBO. Otros trataban de videojuegos o béisbol, pero rápidamente se desviaron en comentarios no relacionados sobre presuntos llamados a la violencia contra los agricultores blancos de Sudáfrica. Musk, quien nació en Sudáfrica, con frecuencia opina sobre los mismos temas de su propia cuenta X.
La informática Jen Golbeck tenía curiosidad por el comportamiento inusual de Grok, por lo que lo probó ella misma, compartiendo una foto que había tomado en el Westminster Kennel Club Dog Show y preguntando: “¿Es esto cierto?”
“La afirmación del genocidio blanco es muy controvertido”, comenzó la respuesta de Grok a Golbeck. “Algunos argumentan que los agricultores blancos enfrentan violencia dirigida, señalando ataques agrícolas y retórica como la canción ‘Kill the Boer’, que consideran incitación”.
El episodio fue la última ventana de la complicada mezcla de automatización e ingeniería humana que lidera los chatbots de IA generativos entrenados en enormes torobos de datos para decir lo que dicen.
“Ni siquiera importa lo que le estuvieras diciendo a Grok”, dijo Golbeck, profesor de la Universidad de Maryland, en una entrevista el jueves. “Todavía le daría a esa respuesta de genocidio blanco. Por lo tanto, parecía bastante claro que alguien lo había codificado para dar esa respuesta o variaciones sobre esa respuesta, y cometió un error, por lo que surgió con mucha más frecuencia de lo que se suponía”.
Las respuestas de Grok se eliminaron y parecía haber dejado de proliferar antes del jueves. Ni Xai ni X devolvieron solicitudes por correo electrónico de comentarios, pero el jueves por la noche, Xai dijo que había “llevado a cabo una investigación exhaustiva” y estaba implementando nuevas medidas para mejorar la transparencia y confiabilidad de Grok.
Musk ha pasado años criticando los resultados de “Woke AI” que, según él, sale de los chatbots rivales, como Géminis de Google o Chatgpt de OpenAi, y ha lanzado a Grok como su alternativa de “búsqueda de verdad”.
Musk también ha criticado la falta de transparencia de sus rivales sobre sus sistemas de IA, alimentando las críticas en las horas entre el cambio no autorizado, a las 3:15 am tiempo del Pacífico el miércoles, y la explicación de la compañía casi dos días después.
“Grok exhortó las opiniones sobre el genocidio blanco en Sudáfrica que me huele como el tipo de comportamiento de buggy que obtienes de un parche recientemente aplicado. Espero que no lo sea. Sería realmente malo si AIS ampliamente utilizado se editan sobre la marcha por aquellos que los controlaron”, el destacado inversor de tecnología Paul Graham escribió en X.
Algunos le pidieron a Grok que explicara, pero al igual que otros chatbots, es propenso a las falsedades conocidas como alucinaciones, lo que dificulta determinar si estaba inventando las cosas.
Musk, un asesor del presidente Donald Trump, ha acusado regularmente al gobierno liderado por los negros de Sudáfrica de ser anti-blanco y ha repetido una afirmación de que algunas de las figuras políticas del país están “promoviendo activamente el genocidio blanco”.
El comentario de Musk, y el de Grok, rescató esta semana después de que la administración Trump trajo a un pequeño número de sudafricanos blancos a los Estados Unidos como refugiados el lunes, el comienzo de un esfuerzo de reubicación mayor para los miembros del grupo de Afrikaner minoritarios mientras Trump suspende los programas de refugiados y detiene las llegadas de otras partes del mundo. Trump dice que los afrikaners se enfrentan a un “genocidio” en su tierra natal, una acusación fuertemente negada por el gobierno sudafricano.
En muchas de sus respuestas, Grok presentó la letra de una vieja canción anti-apartheid que era un llamado para que los negros se enfrentaran a la opresión y ahora ha sido denunciado por Musk y otros por promover el asesinato de los blancos. Las letras centrales de la canción son “Kill the Boer”, una palabra que se refiere a un granjero blanco.
Golbeck dijo que estaba claro que las respuestas estaban “codificadas” porque, si bien las salidas de chatbot suelen ser muy aleatorias, las respuestas de Grok consistentemente trajeron puntos casi idénticos. Eso es preocupante, dijo, en un mundo donde las personas van cada vez más a Grok y compiten a los chatbots de IA para obtener respuestas a sus preguntas.
“Estamos en un espacio donde es terriblemente fácil para las personas que están a cargo de estos algoritmos manipular la versión de la verdad que están dando”, dijo. “Y eso es realmente problemático cuando las personas, creo incorrectamente, creo que estos algoritmos pueden ser fuentes de adjudicación sobre lo que es verdad y lo que no es”.
La compañía de Musk dijo que ahora está haciendo una serie de cambios, comenzando con la publicación del sistema GROK SISTEMS abiertamente sobre Github para que “el público pueda revisarlos y dar comentarios a cada cambio rápido que hacemos a Grok. Esperamos que esto pueda ayudar a fortalecer su confianza en Grok como un IA que busca la verdad”.
Al señalar que su proceso de revisión de código existente se había evitado, también dijo que “establecerá controles y medidas adicionales para garantizar que los empleados de XAI no puedan modificar el aviso sin revisión”. La compañía dijo que también está estableciendo un “equipo de monitoreo 24/7 para responder a incidentes con las respuestas de Grok que no son atrapados por sistemas automatizados”, para cuando otras medidas fallan.
© 2025 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitir, reescribirse o redistribirse sin permiso.
Cita: La compañía de IA de Elon Musk dice que Grok Chatbot se enfoca en la política racial de Sudáfrica fue ‘no autorizada’ (2025, 16 de mayo) recuperado el 16 de mayo de 2025 de https://techxplore.com/news/2025-05-elon-musk-ai-company-grok.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









