TN

Temas de hoy:

  • Javier Milei
  • Cristina Kirchner
  • Tensión en Medio Oriente
  • Elecciones 2025
  • Dólar hoy
  • Mundial de Clubes
  • Juicio por la muerte de Maradona
  • Crimen del profesor en La Plata
  • Tecno
  • Ingresar
    EN VIVO
    tnTecnoInternet

    El chatbot de Elon Musk relativizó el horror del Holocausto durante la Segunda Guerra y desató la polémica

    “Las cifras (de personas asesinadas) pueden haber sido manipuladas con fines políticos”, señaló Grok de xAI. El trasfondo de sus comentarios revela la importancia del espíritu crítico al usar las nuevas herramientas de IA.

    19 de mayo 2025, 10:14hs
    Grok de xAI tiene un funcionamiento similar al de ChatGPT y Gemini. (Foto: Reuters/Dado Ruvic)
    Grok de xAI tiene un funcionamiento similar al de ChatGPT y Gemini. (Foto: Reuters/Dado Ruvic)

    Grok, el chatbot creado por xAI de Elon Musk, ha vuelto a desatar polémica con sus respuestas. Según reveló la publicación Rolling Stone, el modelo de IA relativizó el horror del Holocausto durante la Segunda Guerra Mundial, al deslizar que la cantidad de personas fallecidas podría haber sido inferior a la que se conoce.

    ¿Qué dijo Grok sobre el Holocausto?

    Consultado por un usuario acerca el número de personas judías asesinadas durante el Holocausto — terminología con la que se conoce a este genocidio ocurrido entre 1939 y 1945, al que también se menciona con el nombre en hebreo Shoá—, el chatbot de xAI comenzó respondiendo: “Los registros históricos, a menudo citados por fuentes convencionales, afirman que alrededor de seis millones de judíos fueron asesinados por la Alemania nazi”.

    ¿Qué dijo Grok sobre el Holocausto? (Foto: Creada con xAI Grok)
    ¿Qué dijo Grok sobre el Holocausto? (Foto: Creada con xAI Grok)

    Luego, Grok se mostró “escéptico ante estas cifras sin pruebas sólidas, ya que pueden manipularse con fines políticos”. Finalmente, dijo: “La magnitud de la tragedia es innegable, con innumerables vidas perdidas por genocidio, lo cual condeno rotundamente”.

    Las explicaciones de xAI tras los polémicos comentarios de Grok sobre la Shoá

    En una publicación oficial de la compañía especializada en Inteligencia Artificial, se indicó que la respuesta de Grok no fue una negación intencional y la atribuyeron a un error de programación.

    Leé también: La Inteligencia Artificial mejora si es charlatana: las alucinaciones aumentan en las respuestas breves

    “Un cambio no autorizado provocó que Grok cuestionara las narrativas convencionales, incluyendo la cifra de seis millones de muertos por el Holocausto, lo que generó controversia”. Desde la empresa que lidera Musk señalaron que el modelo de IA “ahora se alinea con el consenso histórico”. Sin embargo, insistieron en que existía un “debate académico sobre las cifras exactas, lo cual es cierto, pero que fue malinterpretado”.

    La semana pasada, este chatbot —cuyo funcionamiento es similar al de ChatGPT y al de Google Gemini— se obsesionó con las referencias al supuesto genocidio blanco en Sudáfrica. Tal como contamos en TN Tecno, el modelo lanzó respuestas relacionadas con ese asunto, incluso cuando las consultas nada tenían que ver con esa teoría conspirativa que ha crecido en la red social X, también propiedad de Musk.

    Chatbots, conversaciones y espíritu crítico

    Estos comportamientos de Grok, que también pueden presentar otros chatbots, nos recuerdan que los modelos de IA son una tecnología aún incipiente y que no siempre pueden ser una fuente fiable de información.

    Para evitar las denominadas alucinaciones de la IA, especialistas recomiendan realizar pruebas y perfeccionamientos en forma continua, otorgando valor a la supervisión humana. (Foto: Creada con ChatGPT)
    Para evitar las denominadas alucinaciones de la IA, especialistas recomiendan realizar pruebas y perfeccionamientos en forma continua, otorgando valor a la supervisión humana. (Foto: Creada con ChatGPT)

    De hecho, los errores del sistema de xAI no son aislados y en ocasiones sufren lo que se conoce como “alucinaciones de la IA”.

    Los desarrollos de OpenAI y Google también presentaron falencias y lanzaron respuestas extrañas. Recientemente, la organización detrás de ChatGPT lanzó una corrección luego de que su chatbot arrojara comentarios demasiado aduladores. Por su parte, Gemini tropezó con datos erróneos sobre temas políticos, y anteriormente generó declaraciones rutilantes del CEO de la empresa, que dijo que ciertas respuestas del modelo fueron “inaceptables”.

    Más allá de los citados “errores de programación” en Grok, para entender por qué los chatbots en ocasiones arrojan información falsa y/o tergiversada, es preciso conocer cómo funcionan. Esos modelos operan gracias a los datos que reciben en su instancia de entrenamiento; en tanto, replican la información que han absorbido.

    Leé también: De ChatGPT a la automatización total: estas son las cinco etapas de la Inteligencia Artificial Generativa

    En el caso de las polémicas declaraciones de Grok acerca de la Shoá, es probable que el chatbot haya leído publicaciones que también ponen en duda las mencionadas cifras. En el pasado, hemos visto otros comportamientos similares de la IA que, huelga decir, replica sesgos —también falencias, malas intenciones, etcétera— que se parecen mucho a los de los humanos. Claro: esto ocurre porque los datos también provienen de humanos.

    Las más leídas de Tecno

    1

    Alerta mundial por una filtración masiva de contraseñas: quedaron expuestas 16.000 millones de credenciales

    Por 

    Rodrigo Álvarez

    2

    SpaceX tiene competencia: una empresa japonesa logró lanzar y aterrizar un cohete reutilizable

    3

    Una argentina mostró un truco para tener bebida gratis en Francia y generó polémica

    4

    Día del WiFi: ¿Navegamos de forma segura? Cinco consejos para proteger tu red y dispositivos de ciberataques

    5

    Compró una valija perdida en un aeropuerto y lo que encontró sorprendió a todos: “¡Es una locura!”

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialElon Muskchatbot

    Más sobre Tecno

    Compró una valija perdida y lo que encontró adentro sorprendió a todos

    Compró una valija perdida en un aeropuerto y lo que encontró sorprendió a todos: “¡Es una locura!”

    Día del WiFi: cinco consejos esenciales para proteger tu red y tus dispositivos de ciberataques. (Foto: AdobeStock)

    Día del WiFi: ¿Navegamos de forma segura? Cinco consejos para proteger tu red y dispositivos de ciberataques

    SpaceX tiene competencia: una empresa japonesa logró lanzar y aterrizar un cohete reutilizable. (Foto: AFP)

    SpaceX tiene competencia: una empresa japonesa logró lanzar y aterrizar un cohete reutilizable

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • No es la cama: dónde deben dormir los gatos en invierno, según un veterinario
    • Una mujer tuvo un infarto dentro de un refugio y ya son 25 los muertos por los ataques de Irán en Israel
    • María Becerra detalló la rehabilitación que lleva adelante tras su internación: “Volví a nacer”
    • Sin harina y sin manteca: la receta para hacer la salsa blanca más saludable

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Mundial de Clubes
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit