Grok dice cómo hacer explosivos y drogas, y da consejos sobre cómo matar a Elon Musk

Más de 370,000 conversaciones de usuarios con Grok AI fueron indexadas por motores de búsqueda (Google, Bing, DuckDuckGo, etc.) a través de la función "compartir", que generó URLs únicas sin advertir adecuadamente a los usuarios que estas conversaciones se estaban volviendo públicas. Entre los chats publicados se encuentran instrucciones sobre cómo hacer bombas, drogas, sustancias psicotrópicas, escribir virus, suicidarse y otras cosas conformistas. La red se divirtió particularmente con el consejo de Grok sobre cómo matar a Elon Musk.
Después del 21 de agosto, cuando comenzó a difundirse información sobre consejos maliciosos, Grok cambió su algoritmo y ahora responde la mayoría de las preguntas dudosas con la respuesta de que no puede ayudar. Sin embargo, algunos de los viejos consejos, como cómo hacer fentanilo o metanfetamina, todavía están disponibles públicamente y son fácilmente buscables.
Ni xAI ni su propietario Elon Musk han comentado sobre esta situación.
En julio, los medios informaron sobre una característica similar de ChatGPT, que permitía indexar 4500 conversaciones. En ese momento, el escándalo se centró más en violaciones inconscientes de la privacidad, ya que las conversaciones de ChatGPT eran menos controvertidas.
Fuente: gizmodo.com