Más de 800 personalidades, entre ellos el cofundador de Apple y los pioneros en el desarrollo de la Inteligencia Artificial, suscribieron una carta abierta en la que piden un freno en el avance de la denominada “superinteligencia”.
La petición fue firmada por figuras como Steve Wozniak, que en los 70’s fundó Apple junto a Steve Jobs; Steve Bannon, exasesor de Donald Trump; el príncipe Harry de Sussex y su esposa Meghan Markle; e incluso los denominados “padres de la IA”, Yoshua Bengio y Geoffrey Hinton.
Leé también: Una universidad acusó al 90% de sus alumnos de usar IA para los trabajos prácticos, pero debió retractarse
Impulsada por la organización Future of Life Institute (FLI), la iniciativa apunta a un impasse real y no simbólico: reclama una pausa en el desarrollo de esas tecnologías hasta que existan un “amplio consenso científico” respecto a su seguridad.

Tal como destaca la publicación Futurism, el documento reúne a figuras de diversos espectros ideológicos en Estados Unidos, entre ellos representantes republicanos y también demócratas. Entre las firmas también aparece Paolo Benanti, que fue asesor del Papa Francisco en temáticas relacionadas con la tecnología.
“Hay una clara desconexión entre las empresas de IA y el deseo de los usuarios”
“Los sistemas de IA de vanguardia podrían superar a los humanos en la mayoría de las tareas cognitivas en tan solo unos años”, advirtió Bengio en un comunicado que recoge la fuente. “Estos avances podrían brindar soluciones a importantes desafíos globales, pero también conllevan riesgos significativos”, agregó el experto.

“Para avanzar con seguridad hacia la superinteligencia, debemos determinar científicamente cómo diseñar sistemas de IA que sean incapaces de dañar a las personas, ya sea por desalineación o uso malicioso”, añadió. “También debemos asegurarnos de que la ciudadanía tenga una participación mucho más fuerte en las decisiones que definirán nuestro futuro colectivo”.
La divulgación de la petición coincide con la publicación de un informe del FLI en el que se mencionó una evidente “desconexión clara entre la misión de las principales empresas de IA y los deseos de los usuarios”.
Leé también: La dura crítica del cofundador de Apple contra la IA: “No piensa, propaga fake news y facilita estafas”
En ese sentido, el director ejecutivo del FLI, el físico Anthony Aguirre, señaló en diálogo con NBC que “este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos”.
Un estudio realizado por esa organización concluyó que el 64% de los usuarios adultos considera que la superinteligencia no debería desarrollarse hasta ser segura y confiable, y que un 73% pretende regulaciones más estrictas para el avance de esos sistemas.
¿Qué es la superinteligencia o “Inteligencia Artificial General”?
También conocida como “IA fuerte” o “AGI”, supone un paso más allá de la IA generativa que ahora tiene como paradigma a ChatGPT. En concreto, es una instancia en el desarrollo de IA en el que los modelos serían capaces de comprender, aprender y aplicar conocimientos, de un modo análogo a los procesos humanos.

La principal diferencia entre IA y AGI es la capacidad de la segunda de abordar múltiples tareas —incluso las acciones de carácter abstracto— y no solamente ejecutar algoritmos programados previamente. Una IA fuerte alcanzaría destrezas típicamente humanas, como el razonamiento y la planificación.
La AGI multiplica los temores que ya genera la IA. En caso de concretarse, esas tecnologías plantean dilemas de orden ético y de seguridad. Ocurre que si una máquina supera a la inteligencia humana, entonces tendría la capacidad de actuar de modos impredecibles y los mayores miedos de la ciencia ficción se materializarían.
Leé también: Qué es la “superinteligencia personal” que anunció Mark Zuckerberg: lenguaje astuto y promesas a futuro
En diálogo con TN Tecno, la especialista Marcela Riccillo apaciguó los temores. La doctora en Ciencias de la Computación de la Universidad de Buenos Aires observó que en este momento no existen ingenios de esa especie, amén de los planes manifiestos de gigantes tecnológicos, como OpenAI y Meta.

“Hay mucho sensacionalismo y eso hace que no tomemos en cuenta el verdadero potencial de la IA y de la robótica”, comentó Riccillo. “Entre los humanos, está definido que existen diferentes tipos de inteligencias. Alguien puede manejarse espectacularmente con cálculos matemáticos, o puede ser hábil comunicándose, y otro podría relacionarse mejor socialmente. Las diversas habilidades hacen que los humanos sean únicos e increíbles”, observó y agregó que “la inteligencia de los seres vivos se basa en conocimientos, emociones y experiencias”, a diferencia de lo que ocurre en los sistemas automatizados.
La conclusión de la experta es elocuente. “Las máquinas no tienen inteligencia. No pueden comprender, ni sentir. En cambio, lo que hace es pasar la información a números: realizan cálculos y sacan relaciones matemáticas. No entienden, ni sienten lo que crean. Hoy no hay indicios de crear una AGI, porque no se sabe cómo sería una conciencia artificial. Ni siquiera se sabe realmente cómo es la conciencia en los seres vivos. En resumen: no hay tecnología actual que sea similar o esté cerca de una inteligencia artificial fuerte”.
Si bien conviene tomar a estos avances como lo que son, en línea con las consideraciones de Riccillo; las advertencias de organismos como el FLI y el apoyo de figuras de la talla de Hinton, Bengio y Wozniak revela que debemos estar preparados para lo que viene. Al respecto, Anthony Aguirre concluyó: “¿Queremos realmente sistemas que sustituyan a los humanos? ¿O preferimos decidir, mientras aún podemos, los límites de la inteligencia que estamos creando?”.



