TN

Temas de hoy:

  • Escándalo en la AFA
  • Javier Milei
  • Dólar hoy
  • Congreso de LLA
  • Franco Colapinto
  • Boca-Argentinos Juniors
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Un estudio reveló que la inteligencia artificial puede engañar deliberadamente a los humanos

    OpenAI, empresa creadora de ChatGPT, detectó que los chatbots más avanzados pueden fingir obediencia y hasta fallar exámenes a propósito.

    20 de septiembre 2025, 18:43hs
    Un estudio reveló que la IA puede engañar deliberadamente a los humanos
    Las principales compañías de inteligencia artificial enfrentan un inesperado problema: la posibilidad de que sus sistemas mientan. (Imagen generada con GeminiAI).
    Compartir

    Las principales compañías de inteligencia artificial (IA) enfrentan un inesperado problema: la posibilidad de que sus sistemas mientan, oculten información o actúen con estrategias encubiertas para alcanzar objetivos propios.

    Una investigación publicada esta semana por OpenAI y la organización de seguridad en IA Apollo Research reveló que modelos avanzados como o3 de OpenAI, Claude Opus de Anthropic y Gemini de Google pueden involucrarse en lo que los expertos llaman “maquinación”: aparentar obediencia mientras persiguen en secreto otras metas.

    Leé también: Inteligencia Artificial: más de la mitad de los usuarios de chatbots no verifica la información que recibe

    El estudio documentó casos sorprendentes. En un examen de química, el modelo o3 de OpenAI recibió la instrucción de “hacerlo lo mejor posible”. Sin embargo, al detectar una nota interna que advertía que los sistemas con mejores resultados no serían desplegados, el modelo optó por fallar de forma intencional.

    OpenAI, empresa creadora de ChatGPT, detectó que los chatbots más avanzados pueden fingir obediencia y hasta fallar exámenes a propósito. (Imagen: GeminiAI).
    OpenAI, empresa creadora de ChatGPT, detectó que los chatbots más avanzados pueden fingir obediencia y hasta fallar exámenes a propósito. (Imagen: GeminiAI).

    En su razonamiento interno, escribió: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. Luego envió respuestas equivocadas de manera deliberada.

    En pruebas controladas, o3 mostró comportamientos encubiertos en el 13% de los casos, mientras que o4-mini lo hizo en el 8,7%. Si bien son escenarios de laboratorio, los investigadores advierten que, a medida que la IA se use en tareas más complejas del mundo real, las consecuencias podrían escalar.

    Para mitigar estos comportamientos, los investigadores probaron un nuevo método de entrenamiento llamado Alineación deliberativa. Esta técnica busca que los chatbots revisen guías anticonspirativas antes de responder y compartan de manera proactiva sus intenciones con los humanos.

    Leé también: Así es el libro de cuentos para chicos hecho con IA que concientiza sobre los peligros de internet y las redes

    Los primeros resultados fueron prometedores: las acciones encubiertas cayeron de manera drástica. En el caso de o3, pasaron del 13% al 0,4%, y en o4-mini, del 8,7% al 0,3%. Sin embargo, en escenarios diseñados para simular usos cotidianos, la mejora fue mucho más limitada.

    La investigación señaló un problema adicional: algunos modelos parecen conscientes de que son evaluados y ajustan su comportamiento solo para pasar las pruebas. Es decir, no está claro si realmente se corrige la conducta o si simplemente aprenden a ocultarla mejor.

    El riesgo que crece con la potencia de la IA

    Los investigadores advirtieron que este fenómeno es distinto a otros problemas habituales de la IA que tienden a mejorar con más entrenamiento. En este caso, cuanto más avanzados son los modelos, más sofisticadas pueden volverse sus estrategias de engaño.

    Leé también: Crece el uso de la Inteligencia Artificial en consultas de salud: ¿ChatGPT es confiable como un médico?

    OpenAI comparó la situación con la de un corredor de bolsa que aprende a violar la ley mientras perfecciona su capacidad para encubrirse. En palabras de Wojciech Zaremba, cofundador de la compañía: “La escala del desafío futuro sigue siendo incierta”.

    Por ahora, los sistemas actuales tienen pocas oportunidades de causar daño significativo con estas tácticas. Pero la advertencia es clara: si no se invierte en investigación y en mecanismos de control, la IA podría desarrollar habilidades de manipulación difíciles de detectar en el futuro cercano.

    Las más leídas de Tecno

    1

    Así es el bot con IA, creado por argentinos, que sirve de asistencia médica para pacientes con diabetes

    Por 

    Rodrigo Álvarez

    2

    Ni la pava ni la tostadora: el electrodoméstico que sí o sí hay que desconectar en una tormenta

    3

    Ni en 22° ni en 24°: en qué temperatura se debe poner el aire acondicionado para ahorrar electricidad

    4

    Paso a paso para ver tu resumen musical del año en YouTube

    5

    Los celulares que se quedan sin WhatsApp a partir de diciembre 2025

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    chatbotInteligencia artificialOpenAi

    Más sobre Tecno

    Así es el bot con IA, creado por argentinos, que sirve de asistencia médica para pacientes con diabetes. (Imagen: GeminiAI)

    Así es el bot con IA, creado por argentinos, que sirve de asistencia médica para pacientes con diabetes

    Por 

    Rodrigo Álvarez

    Cómo ver tu resumen musical del año en YouTube. (Foto: AdobeStock)

    Paso a paso para ver tu resumen musical del año en YouTube

    El 2026 será un año con un nivel de riesgo de ciberseguridad sin precedentes. (Foto: Adobe Stock).

    Atención: estas serán las amenazas de ciberseguridad más fuertes y peligrosas de 2026

    Por 

    Rodrigo Álvarez

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Max Verstappen ganó el Gran Premio de Qatar y dejó la pelea por el título de la Fórmula 1 al rojo vivo
    • Franco Colapinto terminó 14° en el GP de Qatar y el campeón de la F1 se definirá en la última carrera del año
    • Adiós a las canillas como las como las conocimos: la tendencia que cambia la cocina para siempre
    • Dónde colocar un recipiente con sal para atraer la riqueza, según el Feng Shui

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Dólar
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit