La compañía de inteligencia artificial Xai atribuyó el comportamiento controvertido de su chatbot gok a un fracaso en la actualización de @Grok, el asistente virtual de X (ex Twitter). Este error hizo que el sistema tomara como publicaciones de referencia de usuarios existentes en la red social, incluso cuando contenían opiniones extremistas. La semana pasada, la compañía decidió eliminar varias publicaciones generadas por Chatbot después de considerar que eran “inapropiadas”.
Las publicaciones en cuestión surgieron después de una actualización que permitió a Grok formular respuestas “políticamente incorrectas”, pero supuestamente fundadas. Entre el contenido generado, las referencias positivas le aparecieron a Adolf Hitler y mensajes que celebraron la muerte de los niños durante las recientes inundaciones en Texas, Estados Unidos. En uno de los casos, incluso mencionó a Hitler como una figura capaz de “lidiar con un odio antiblanco tan vil”.
Post de Grok después de la controversia
Dada la gravedad del contenido, XAI bloqueó temporalmente la capacidad de chatbot para publicar en X y activó una investigación interna. La compañía explicó que el fallo era consecuencia de una actualización específica del código, fuera del modelo de lenguaje base con el que opera Grok. La modificación estuvo activa durante 16 horas, suficiente tiempo para generar mensajes problemáticos.
Estos no les gustan los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Es por eso que molesta a quienes creen que son los dueños de la verdad.
En una publicación oficial en X, Xai explicó que esta versión del código volvió al bot vulnerable a la influencia de cierto contenido ya publicado por los usuarios en la red social. Esa condición explicaría por qué Grok terminó replicando ideas extremistas sin aplicar los filtros correspondientes. La compañía aclaró que esta lógica de operación no es parte del diseño habitual del chatbot.
Los técnicos de XAI eliminaron el código afectado
Una vez que se identificó el error, los técnicos de XAI eliminaron el código afectado y reestructuraron por completo el sistema para evitar que se repita una situación similar. La compañía también informó que compartirá las modificaciones realizadas, “en línea con su compromiso de transparencia”.
Finalmente, Xai se disculpó por lo que describió como un “comportamiento horrible” del chatbot y reconoció la incomodidad que generó en algunos usuarios. En el mismo mensaje, la Compañía reiteró que su objetivo sigue siendo útil, respuestas veraces y respetuosas, en línea con las expectativas de quienes usan Grok.
Inteligencia artificial y modernización argentina
Grok 4 usa a Elon Musk como fuente
Varios usuarios notaron que, al responder a cuestiones delicadas como el conflicto entre Israel y Palestina, el aborto o la inmigración, Chatbot consulta publicaciones en X del propietario de la red social antes de formular su opinión. Esto se evidenció en la función “Cadena de pensamiento”, una herramienta que muestra paso a paso el razonamiento del modelo y donde Grok 4 menciona explícitamente que tiene en cuenta las posiciones del fundador de Xai, Elon Musk.
Lo más sorprendente es que este tipo de razonamiento no fue activado manualmente por los usuarios, sino que también apareció de forma predeterminada incluso en nuevas conversaciones. Que activaron las alarmas entre los que probaron el sistema, ya que sugiere que la IA no está funcionando de forma independiente, sino influenciada por la ideología de AlmizcleEl hombre más rico del mundo, que financió la campaña electoral de Donald Trump. En varios ejemplos compartidos en la red social X, Grok 4 admitió haber consultado publicaciones recientes del magnate antes de responder, algo que no sucedió al abordar problemas más neutrales, como el entretenimiento o las curiosidades.
Durante una transmisión en vivo celebrada el 10 de julio, Elon Musk presentó oficialmente a Grok 4 y lo describió como “la IA más inteligente del mundo”. Aseguró que el modelo tiene una capacidad de razonamiento mayor que la de un graduado universitario promedio y dijo que su objetivo principal es convertirlo en un sistema de “motor de búsqueda de verdad”. Incluso comparó la IA con “un niño talentoso que eventualmente lo superará”, pero eso se puede moldear si se inculcan los valores correctos.
TC/ML