Las nuevas herramientas potenciadas con Inteligencia Artificial admiten múltiples usos, que trascienden por mucho la generación de resúmenes, de imágenes a partir de instrucciones o las conversaciones entre humanos y máquinas. Inmersos en el boom de la IA, nos hemos enterado de numerosas aplicaciones de esas tecnologías, incluyendo algunos casos curiosos y otros que abren renovados debates. Entre ellos, se anota el de un militar de alto rango del Ejército de Estados Unidos.
Leé también: Estados Unidos: un adolescente de 13 años fue detenido por preguntarle a ChatGPT cómo matar a un amigo
Según contó William “Hank” Taylor a Business Insider, habitualmente recurre a ChatGPT para tomar decisiones de mando. “El chatbot y yo nos hemos vuelto muy cercanos”, comentó el general, que en este momento desempeña tareas en Corea del Sur.
ChatGPT, consejero de un militar de alto rango
“Como líder, quiero tomar mejores decisiones”, señaló Taylor en una conferencia organizada por el Ejército estadounidense en Washington. “Quiero asegurarme de resolver en el momento oportuno para obtener ventaja”, agregó.

Si bien “Hank” evitó dar ejemplos concretos acerca de cómo usa ChatGPT, aseguró que acude al modelo desarrollado por OpenAI para la toma de decisiones y tareas de liderazgo, y no para aplicar en situaciones de combate.
Taylor, quien también se desempeña como jefe de Estado Mayor del Comando de las Naciones Unidas en Corea del Sur, dijo que considera la tecnología como una herramienta válida para diseñar modelos analíticos y capacitar al personal para pensar con mayor eficiencia.
Siguiendo a New York Post, estos comentarios son uno de los reconocimientos más directos hasta la fecha de un alto oficial estadounidense sobre el apoyo en un chatbot comercial para sus labores diarias.

El Ejército de Estados Unidos sí ha divulgado que impulsa el uso de IA para tareas de logística, vigilancia y decisiones tácticas. Recientemente, nos enteramos que Meta se asoció con el fundador de Oculus como proveedor de soluciones para aquel organismo dependiente del gobierno, que también agregan avances en realidad virtual. También fue célebre una prueba en la que una IA piloteó un avión de guerra.
Leé también: Una Inteligencia Artificial compitió contra un piloto humano en un avión de combate real... y le ganó
En este marco, emergen críticas y preocupaciones relacionadas con la automatización de tareas sensibles, en las que el razonamiento humano sigue siendo clave, especialmente si involucra el uso de la fuerza. Al respecto, el exsecretario de la Fuerza Aérea estadounidense, Frank Kendall, advirtió el año pasado que el avance en el desarrollo de armas autónomas implica que los comandantes que no se adapten “no sobrevivirán al próximo campo de batalla”.
Por su parte, el general Taylor también reconoció que uno de los desafíos asociados al uso de estas tecnologías es mantenerse al día con su rápida evolución, lo que incluye garantizar que se cumplan los estrictos requisitos de seguridad.