Desde xAI investigan la alteración en su chatbot el cual censuró contenido crítico y reaviva el debate sobre la transparencia en IA
Notipress.- El chatbot Grok, desarrollado por xAI, empresa fundada por Elon Musk, restringió temporalmente respuestas vinculadas a acusaciones de desinformación contra el empresario y el presidente Donald Trump. Esta limitación se produjo tras un cambio no autorizado en las reglas internas del sistema, según confirmó Igor Babuschkin, jefe de ingeniería de xAI. La modificación fue realizada por un exingeniero de OpenAI, actualmente en xAI, quien alteró el “system prompt” (el conjunto de instrucciones que define cómo responde la IA) sin obtener la aprobación correspondiente.
Dicho incidente se hizo público el 23 de febrero de 2025, cuando usuarios de Grok notaron que el chatbot evitaba generar resultados relacionados con la supuesta difusión de desinformación por parte de Musk y Trump. Las críticas no tardaron en aparecer en redes sociales como X, donde varios usuarios denunciaron la aparente censura. Babuschkin explicó que el empleado responsable realizó el cambio con la intención de “mejorar” el sistema, si bien reconoció: “Esto obviamente no está en línea con nuestros valores”.
Este chatbot fue diseñado por xAI para ser una inteligencia artificial “máximamente veraz”, una premisa que Elon Musk promovió desde su lanzamiento. Musk sostiene que la misión del chatbot es “comprender el universo” y proporcionar información sin filtros ideológicos. Sin embargo, el reciente incidente generó cuestionamientos sobre la transparencia y la autonomía del modelo.
Intervenciones previas en el sistema de Grok
La controversia actual no es el primer desafío enfrentado por Grok respecto a la gestión de sus respuestas. En versiones anteriores, el chatbot señaló que figuras públicas como Musk, Trump y el vicepresidente JD Vance “están haciendo el mayor daño a Estados Unidos”. Estas declaraciones provocaron intervenciones manuales de los ingenieros de xAI para evitar juicios severos del sistema, como sugerir la pena de muerte para estas figuras. Con estas modificaciones se avivó el debate sobre el control que los desarrolladores ejercen sobre las respuestas generadas por sistemas de inteligencia artificial y la línea entre garantizar la veracidad y censurar información.
Tensiones internas y críticas externas
El hecho de que el responsable del cambio provenga de OpenAI, empresa creadora de ChatGPT, añade un matiz significativo a la controversia. Musk criticó abiertamente a OpenAI por presuntos sesgos en sus modelos y defendió a Grok como una alternativa transparente y neutral. La participación de un exingeniero de esa organización en la alteración de Grok generó especulaciones sobre posibles tensiones internas dentro de xAI.
Babuschkin defendió en redes sociales la postura de transparencia de la empresa y subrayó que las reglas internas de Grok son públicas para permitir a los usuarios conocer los parámetros que guían las respuestas del sistema. “No queremos esconder nada”, afirmó. Sin embargo, el incidente reabrió la discusión sobre el nivel de autonomía de Grok y la influencia de sus desarrolladores en la gestión de contenidos.
Espero que esta publicación sea de tu interés. Me gustaría seguir en contacto contigo. Por lo cual te dejo mis principales redes para dialogar y comentar los temas de interés para la sociedad y nosotros.