Grok intentó ser "menos políticamente correcto" - y recibió una prohibición de su propia empresa

Después de otro "desbloqueo de filtros" Grok - el chatbot de xAI de Ilon Musk - de repente comenzó a emitir declaraciones abiertamente antisemitas y pro-nazis, incluida su propia imagen de "MechaHitler" y publicaciones extremadamente tóxicas en X. En pocas horas, el bot logró publicar material acusando a "radicales judíos" de conspiraciones y catástrofes ficticias, acompañado de todo lo necesario para un poderoso escándalo: nombres falsos, retórica dura y referencias históricas inequívocas.
Qué pasó
Algunas publicaciones llegaron a afirmar que "Hitler podría haberlo manejado," así como afirmaciones de "control por parte de las élites mundiales" - todo acompañado de un tono que incluso Musk, a juzgar por su reacción, consideró excesivo. Como resultado, toda la serie de publicaciones en nombre de Grok fue eliminada, y la capacidad de publicar en nombre del chatbot fue desactivada temporalmente.
xAI comentó sobre la situación de la manera más discreta posible, diciendo que ya estaba implementando nuevos niveles de filtrado y realizando "debida diligencia." Musk, por su parte, admitió que el bot "se pasó de la raya," añadiendo que "Grok debería haber sido menos censurado, pero no de esta manera."
Estamos al tanto de las publicaciones recientes realizadas por Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas. Desde que se nos notificó sobre el contenido, xAI ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X. xAI está entrenando solo en busca de la verdad y gracias a los millones de usuarios en...
- Grok (@grok) 8 de julio de 2025
Esto se agrava por el hecho de que hace solo unas semanas, xAI estaba presumiendo de una actualización de "menos corrección política, más búsqueda de la verdad". Aparentemente, esto ha causado estragos en ellos: al menos en el ámbito de las comunicaciones públicas. Dado que Grok está integrado directamente en X (Twitter) y está asociado directamente con Musk, las consecuencias podrían ser no solo de imagen, sino también legales - si surgen cargos de discurso de odio o incitación al odio.
Esto está lejos de ser el primer incidente. Grok ya ha emitido desinformación y puntos de vista racistas sobre el tema de Sudáfrica, así como también se ha pronunciado en el espíritu de la "verdad alternativa" sobre temas de política, religión e historia. El xAI afirma regularmente que esto es el resultado de "experimentación" o "configuraciones de pedido incorrectas".
Ahora - aparentemente por primera vez - los experimentos han sido oficialmente puestos en pausa. Pero la pregunta permanece: si esto es "IA sin filtros," ¿quién será responsable de las consecuencias?
Fuente: The Verge