Grok intentó ser "menos políticamente correcto" - y recibió una prohibición de su propia empresa

Por: Russell Thompson | hoy dia, 16:20

Después de otro "desbloqueo de filtros" Grok - el chatbot de xAI de Ilon Musk - de repente comenzó a emitir declaraciones abiertamente antisemitas y pro-nazis, incluida su propia imagen de "MechaHitler" y publicaciones extremadamente tóxicas en X. En pocas horas, el bot logró publicar material acusando a "radicales judíos" de conspiraciones y catástrofes ficticias, acompañado de todo lo necesario para un poderoso escándalo: nombres falsos, retórica dura y referencias históricas inequívocas.

Qué pasó

Algunas publicaciones llegaron a afirmar que "Hitler podría haberlo manejado," así como afirmaciones de "control por parte de las élites mundiales" - todo acompañado de un tono que incluso Musk, a juzgar por su reacción, consideró excesivo. Como resultado, toda la serie de publicaciones en nombre de Grok fue eliminada, y la capacidad de publicar en nombre del chatbot fue desactivada temporalmente.

xAI comentó sobre la situación de la manera más discreta posible, diciendo que ya estaba implementando nuevos niveles de filtrado y realizando "debida diligencia." Musk, por su parte, admitió que el bot "se pasó de la raya," añadiendo que "Grok debería haber sido menos censurado, pero no de esta manera."

Esto se agrava por el hecho de que hace solo unas semanas, xAI estaba presumiendo de una actualización de "menos corrección política, más búsqueda de la verdad". Aparentemente, esto ha causado estragos en ellos: al menos en el ámbito de las comunicaciones públicas. Dado que Grok está integrado directamente en X (Twitter) y está asociado directamente con Musk, las consecuencias podrían ser no solo de imagen, sino también legales - si surgen cargos de discurso de odio o incitación al odio.

Esto está lejos de ser el primer incidente. Grok ya ha emitido desinformación y puntos de vista racistas sobre el tema de Sudáfrica, así como también se ha pronunciado en el espíritu de la "verdad alternativa" sobre temas de política, religión e historia. El xAI afirma regularmente que esto es el resultado de "experimentación" o "configuraciones de pedido incorrectas".

Ahora - aparentemente por primera vez - los experimentos han sido oficialmente puestos en pausa. Pero la pregunta permanece: si esto es "IA sin filtros," ¿quién será responsable de las consecuencias?

Fuente: The Verge