Grok, el chatbot creado por xAI de Elon Musk, ha vuelto a desatar polémica con sus respuestas. Según reveló la publicación Rolling Stone, el modelo de IA relativizó el horror del Holocausto durante la Segunda Guerra Mundial, al deslizar que la cantidad de personas fallecidas podría haber sido inferior a la que se conoce.
¿Qué dijo Grok sobre el Holocausto?
Consultado por un usuario acerca el número de personas judías asesinadas durante el Holocausto — terminología con la que se conoce a este genocidio ocurrido entre 1939 y 1945, al que también se menciona con el nombre en hebreo Shoá—, el chatbot de xAI comenzó respondiendo: “Los registros históricos, a menudo citados por fuentes convencionales, afirman que alrededor de seis millones de judíos fueron asesinados por la Alemania nazi”.

Luego, Grok se mostró “escéptico ante estas cifras sin pruebas sólidas, ya que pueden manipularse con fines políticos”. Finalmente, dijo: “La magnitud de la tragedia es innegable, con innumerables vidas perdidas por genocidio, lo cual condeno rotundamente”.
Las explicaciones de xAI tras los polémicos comentarios de Grok sobre la Shoá
En una publicación oficial de la compañía especializada en Inteligencia Artificial, se indicó que la respuesta de Grok no fue una negación intencional y la atribuyeron a un error de programación.
Leé también: La Inteligencia Artificial mejora si es charlatana: las alucinaciones aumentan en las respuestas breves
“Un cambio no autorizado provocó que Grok cuestionara las narrativas convencionales, incluyendo la cifra de seis millones de muertos por el Holocausto, lo que generó controversia”. Desde la empresa que lidera Musk señalaron que el modelo de IA “ahora se alinea con el consenso histórico”. Sin embargo, insistieron en que existía un “debate académico sobre las cifras exactas, lo cual es cierto, pero que fue malinterpretado”.
La semana pasada, este chatbot —cuyo funcionamiento es similar al de ChatGPT y al de Google Gemini— se obsesionó con las referencias al supuesto genocidio blanco en Sudáfrica. Tal como contamos en TN Tecno, el modelo lanzó respuestas relacionadas con ese asunto, incluso cuando las consultas nada tenían que ver con esa teoría conspirativa que ha crecido en la red social X, también propiedad de Musk.
Chatbots, conversaciones y espíritu crítico
Estos comportamientos de Grok, que también pueden presentar otros chatbots, nos recuerdan que los modelos de IA son una tecnología aún incipiente y que no siempre pueden ser una fuente fiable de información.

De hecho, los errores del sistema de xAI no son aislados y en ocasiones sufren lo que se conoce como “alucinaciones de la IA”.
Los desarrollos de OpenAI y Google también presentaron falencias y lanzaron respuestas extrañas. Recientemente, la organización detrás de ChatGPT lanzó una corrección luego de que su chatbot arrojara comentarios demasiado aduladores. Por su parte, Gemini tropezó con datos erróneos sobre temas políticos, y anteriormente generó declaraciones rutilantes del CEO de la empresa, que dijo que ciertas respuestas del modelo fueron “inaceptables”.
Más allá de los citados “errores de programación” en Grok, para entender por qué los chatbots en ocasiones arrojan información falsa y/o tergiversada, es preciso conocer cómo funcionan. Esos modelos operan gracias a los datos que reciben en su instancia de entrenamiento; en tanto, replican la información que han absorbido.
Leé también: De ChatGPT a la automatización total: estas son las cinco etapas de la Inteligencia Artificial Generativa
En el caso de las polémicas declaraciones de Grok acerca de la Shoá, es probable que el chatbot haya leído publicaciones que también ponen en duda las mencionadas cifras. En el pasado, hemos visto otros comportamientos similares de la IA que, huelga decir, replica sesgos —también falencias, malas intenciones, etcétera— que se parecen mucho a los de los humanos. Claro: esto ocurre porque los datos también provienen de humanos.