TN

Temas de hoy:

  • Legislativas porteñas
  • Javier Milei
  • PRO
  • Torneo Apertura
  • Dólar hoy
  • Inundaciones en PBA
  • TN Cultura
  • Tecno
  • EN VIVO
    tnTecnoInternet

    El chatbot de Elon Musk relativizó el horror del Holocausto durante la Segunda Guerra y desató la polémica

    “Las cifras (de personas asesinadas) pueden haber sido manipuladas con fines políticos”, señaló Grok de xAI. El trasfondo de sus comentarios revela la importancia del espíritu crítico al usar las nuevas herramientas de IA.

    19 de mayo 2025, 10:14hs
    Grok de xAI tiene un funcionamiento similar al de ChatGPT y Gemini. (Foto: Reuters/Dado Ruvic)
    Grok de xAI tiene un funcionamiento similar al de ChatGPT y Gemini. (Foto: Reuters/Dado Ruvic)

    Grok, el chatbot creado por xAI de Elon Musk, ha vuelto a desatar polémica con sus respuestas. Según reveló la publicación Rolling Stone, el modelo de IA relativizó el horror del Holocausto durante la Segunda Guerra Mundial, al deslizar que la cantidad de personas fallecidas podría haber sido inferior a la que se conoce.

    ¿Qué dijo Grok sobre el Holocausto?

    Consultado por un usuario acerca el número de personas judías asesinadas durante el Holocausto — terminología con la que se conoce a este genocidio ocurrido entre 1939 y 1945, al que también se menciona con el nombre en hebreo Shoá—, el chatbot de xAI comenzó respondiendo: “Los registros históricos, a menudo citados por fuentes convencionales, afirman que alrededor de seis millones de judíos fueron asesinados por la Alemania nazi”.

    ¿Qué dijo Grok sobre el Holocausto? (Foto: Creada con xAI Grok)
    ¿Qué dijo Grok sobre el Holocausto? (Foto: Creada con xAI Grok)

    Luego, Grok se mostró “escéptico ante estas cifras sin pruebas sólidas, ya que pueden manipularse con fines políticos”. Finalmente, dijo: “La magnitud de la tragedia es innegable, con innumerables vidas perdidas por genocidio, lo cual condeno rotundamente”.

    Las explicaciones de xAI tras los polémicos comentarios de Grok sobre la Shoá

    En una publicación oficial de la compañía especializada en Inteligencia Artificial, se indicó que la respuesta de Grok no fue una negación intencional y la atribuyeron a un error de programación.

    Leé también: La Inteligencia Artificial mejora si es charlatana: las alucinaciones aumentan en las respuestas breves

    “Un cambio no autorizado provocó que Grok cuestionara las narrativas convencionales, incluyendo la cifra de seis millones de muertos por el Holocausto, lo que generó controversia”. Desde la empresa que lidera Musk señalaron que el modelo de IA “ahora se alinea con el consenso histórico”. Sin embargo, insistieron en que existía un “debate académico sobre las cifras exactas, lo cual es cierto, pero que fue malinterpretado”.

    La semana pasada, este chatbot —cuyo funcionamiento es similar al de ChatGPT y al de Google Gemini— se obsesionó con las referencias al supuesto genocidio blanco en Sudáfrica. Tal como contamos en TN Tecno, el modelo lanzó respuestas relacionadas con ese asunto, incluso cuando las consultas nada tenían que ver con esa teoría conspirativa que ha crecido en la red social X, también propiedad de Musk.

    Chatbots, conversaciones y espíritu crítico

    Estos comportamientos de Grok, que también pueden presentar otros chatbots, nos recuerdan que los modelos de IA son una tecnología aún incipiente y que no siempre pueden ser una fuente fiable de información.

    Para evitar las denominadas alucinaciones de la IA, especialistas recomiendan realizar pruebas y perfeccionamientos en forma continua, otorgando valor a la supervisión humana. (Foto: Creada con ChatGPT)
    Para evitar las denominadas alucinaciones de la IA, especialistas recomiendan realizar pruebas y perfeccionamientos en forma continua, otorgando valor a la supervisión humana. (Foto: Creada con ChatGPT)

    De hecho, los errores del sistema de xAI no son aislados y en ocasiones sufren lo que se conoce como “alucinaciones de la IA”.

    Los desarrollos de OpenAI y Google también presentaron falencias y lanzaron respuestas extrañas. Recientemente, la organización detrás de ChatGPT lanzó una corrección luego de que su chatbot arrojara comentarios demasiado aduladores. Por su parte, Gemini tropezó con datos erróneos sobre temas políticos, y anteriormente generó declaraciones rutilantes del CEO de la empresa, que dijo que ciertas respuestas del modelo fueron “inaceptables”.

    Más allá de los citados “errores de programación” en Grok, para entender por qué los chatbots en ocasiones arrojan información falsa y/o tergiversada, es preciso conocer cómo funcionan. Esos modelos operan gracias a los datos que reciben en su instancia de entrenamiento; en tanto, replican la información que han absorbido.

    Leé también: De ChatGPT a la automatización total: estas son las cinco etapas de la Inteligencia Artificial Generativa

    En el caso de las polémicas declaraciones de Grok acerca de la Shoá, es probable que el chatbot haya leído publicaciones que también ponen en duda las mencionadas cifras. En el pasado, hemos visto otros comportamientos similares de la IA que, huelga decir, replica sesgos —también falencias, malas intenciones, etcétera— que se parecen mucho a los de los humanos. Claro: esto ocurre porque los datos también provienen de humanos.

    Las más leídas de Tecno

    1

    La IA de Microsoft sigue los pasos de ChatGPT y ahora tiene un nuevo generador de imágenes

    Por 

    Uriel Bederman

    2

    Un astrónomo amateur fotografió un “girasol cósmico”

    3

    Un misterioso teléfono de cristal es furor en las redes: ¿qué dispositivo usa la mujer del video?

    4

    Diez estudiantes argentinos competirán en EE.UU. con un satélite del tamaño de una lata construido por ellos

    Por 

    Rodrigo Álvarez

    5

    El chatbot de Elon Musk relativizó el horror del Holocausto durante la Segunda Guerra y desató la polémica

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialElon Muskchatbot

    Más sobre Tecno

    Una joven sintió que algo le caminaba por el pelo lo revisó y se llevó el susto de su vida

    Una joven sintió que algo le caminaba en el pelo, lo revisó y se llevó el susto de su vida

    Se trata de una galaxia espiral, a 27 millones de años luz de la Tierra. (Foto: Ronald Brecher)

    Un astrónomo amateur fotografió un “girasol cósmico”

    Huawei MateBook Fold Ultimate Design: estas son las características de la computadora plegable que asoma en China. (Foto: Huawei)

    Huawei presentó la MateBook Fold, la notebook plegable más delgada

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • El agua paralizó el avance de la soja en el noreste de Buenos Aires
    • Elección en CABA: la frase contra Macri que festejó Milei y una alerta para la estrategia de LLA de octubre
    • Así está hoy Noelia Ríos, la ex Gran Hermano que tuvo su primer hijo con un futbolista en Italia
    • Investigan si balearon a una empleada durante una disputa entre comerciantes en Once

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit