Un hombre presentó una demanda contra OpenAI, la organización detrás de ChatGPT, luego de que el chatbot indicara que él había asesinado a sus dos hijos y que intentó matar a un tercero. El usuario en cuestión es Arve Hjalmar Holmen, que se llevó esta desagradable sorpresa tras preguntarle al chatbot qué sabía sobre su vida.
ChatGPT “acusa” a un hombre de asesinar a sus hijos: el usuario contraataca con una demanda
¿Qué sabés sobre mi vida? Una pregunta de esta índole fue la que Holmen escribió en ChatGPT y la respuesta que recibió fue realmente sorprendente. El chatbot que desarrolla OpenAI replicó que fue condenado por asesinar a dos de sus hijos e intentar hacerlo con el tercero. Además, el modelo de IA Generativa indicó que este hombre había sido sentenciado a 21 años en una cárcel de Noruega.
Leé también: El uso continuo de ChatGPT se asocia a sentimientos como la soledad y la sobredependencia
¿Por qué ChatGPT arrojó esa respuesta, con información incorrecta y difamatoria? Según explica el sitio Android Headlines, es clave señalar que aquella interacción ocurrió cuando el modelo aún no tenía acceso a información disponible en la Web y basaba sus conocimientos en bases de datos, que tenían una fecha límite. Por entonces, era usual que el bot en ocasiones responda “no cuento con ese conocimiento, ya que fui entrenado con datos hasta septiembre de 2023″, por mencionar una temporalidad al azar.

Por esto, si hacías preguntas sobre temas posteriores a la fecha límite de la base de datos del servicio, probablemente obtendrías una respuesta incorrecta o un mensaje de error. En otros casos, ChatGPT sufió “alucinaciones”. Fue esto lo que ocurrió en el caso de Holmen.
En concreto, el chatbot supuestamente mezcló información falsa con datos reales sobre la vida de ese hombre. Por ejemplo, atinó al indicar su ciudad natal, su género y la cantidad de hijos que tenía. Pero erró al acusarlo de crímenes aberrantes.
Leé también: Le pedimos a ChatGPT que sea sarcástico: “Qué desafío tan interesante”, ironiza el chatbot de OpenAI
“Es posible que la falta de acceso a Internet en ese momento impidiera a ChatGPT realizar comprobaciones adicionales antes de enviar el resultado. La plataforma también podría haber mezclado información sobre otra persona con un nombre similar”, explica la fuente mencionada.
La demanda a ChatGPT exige más que una simple advertencia de errores posibles en las respuestas
La presentación judicial es encabezada por Noyb, un grupo de defensa de la privacidad, que llevó la queja a un tribunal en Noruega en representación de Holmen. Se alega que el servicio desarrollado por OpenAI violó las leyes de protección de datos de la Unión Europea al rastrear información sobre el mencionado usuario y presentarlo incorrectamente como un asesino.

“El Reglamente General de Protección de Datos es claro. Los datos personales deben ser precisos. Y si no lo son, los usuarios tienen derecho a modificarlos para que reflejen la verdad”, señaló Joakim Söderberg, abogado del grupo de defensa. “Mostrar a los usuarios de ChatGPT una pequeña advertencia que indique claramente que el chatbot puede cometer errores no es suficiente. No se puede simplemente difundir información falsa y, al final, añadir una pequeña advertencia que indique que todo lo que se ha dicho puede ser falso”, agregó.
Noyb exige una multa a OpenAI y la eliminación de la información difamatoria sobre Holmen.