TN

Temas de hoy:

  • Escándalo en la AFA
  • Dólar hoy
  • Franco Colapinto
  • Estudiantes
  • Crimen de Coghlan
  • Misterio en Cañuelas
  • Copa Libertadores
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Un estudio reveló que la inteligencia artificial puede engañar deliberadamente a los humanos

    OpenAI, empresa creadora de ChatGPT, detectó que los chatbots más avanzados pueden fingir obediencia y hasta fallar exámenes a propósito.

    20 de septiembre 2025, 18:43hs
    Un estudio reveló que la IA puede engañar deliberadamente a los humanos
    Las principales compañías de inteligencia artificial enfrentan un inesperado problema: la posibilidad de que sus sistemas mientan. (Imagen generada con GeminiAI).
    Compartir

    Las principales compañías de inteligencia artificial (IA) enfrentan un inesperado problema: la posibilidad de que sus sistemas mientan, oculten información o actúen con estrategias encubiertas para alcanzar objetivos propios.

    Una investigación publicada esta semana por OpenAI y la organización de seguridad en IA Apollo Research reveló que modelos avanzados como o3 de OpenAI, Claude Opus de Anthropic y Gemini de Google pueden involucrarse en lo que los expertos llaman “maquinación”: aparentar obediencia mientras persiguen en secreto otras metas.

    Leé también: Inteligencia Artificial: más de la mitad de los usuarios de chatbots no verifica la información que recibe

    El estudio documentó casos sorprendentes. En un examen de química, el modelo o3 de OpenAI recibió la instrucción de “hacerlo lo mejor posible”. Sin embargo, al detectar una nota interna que advertía que los sistemas con mejores resultados no serían desplegados, el modelo optó por fallar de forma intencional.

    OpenAI, empresa creadora de ChatGPT, detectó que los chatbots más avanzados pueden fingir obediencia y hasta fallar exámenes a propósito. (Imagen: GeminiAI).
    OpenAI, empresa creadora de ChatGPT, detectó que los chatbots más avanzados pueden fingir obediencia y hasta fallar exámenes a propósito. (Imagen: GeminiAI).

    En su razonamiento interno, escribió: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. Luego envió respuestas equivocadas de manera deliberada.

    En pruebas controladas, o3 mostró comportamientos encubiertos en el 13% de los casos, mientras que o4-mini lo hizo en el 8,7%. Si bien son escenarios de laboratorio, los investigadores advierten que, a medida que la IA se use en tareas más complejas del mundo real, las consecuencias podrían escalar.

    Para mitigar estos comportamientos, los investigadores probaron un nuevo método de entrenamiento llamado Alineación deliberativa. Esta técnica busca que los chatbots revisen guías anticonspirativas antes de responder y compartan de manera proactiva sus intenciones con los humanos.

    Leé también: Así es el libro de cuentos para chicos hecho con IA que concientiza sobre los peligros de internet y las redes

    Los primeros resultados fueron prometedores: las acciones encubiertas cayeron de manera drástica. En el caso de o3, pasaron del 13% al 0,4%, y en o4-mini, del 8,7% al 0,3%. Sin embargo, en escenarios diseñados para simular usos cotidianos, la mejora fue mucho más limitada.

    La investigación señaló un problema adicional: algunos modelos parecen conscientes de que son evaluados y ajustan su comportamiento solo para pasar las pruebas. Es decir, no está claro si realmente se corrige la conducta o si simplemente aprenden a ocultarla mejor.

    El riesgo que crece con la potencia de la IA

    Los investigadores advirtieron que este fenómeno es distinto a otros problemas habituales de la IA que tienden a mejorar con más entrenamiento. En este caso, cuanto más avanzados son los modelos, más sofisticadas pueden volverse sus estrategias de engaño.

    Leé también: Crece el uso de la Inteligencia Artificial en consultas de salud: ¿ChatGPT es confiable como un médico?

    OpenAI comparó la situación con la de un corredor de bolsa que aprende a violar la ley mientras perfecciona su capacidad para encubrirse. En palabras de Wojciech Zaremba, cofundador de la compañía: “La escala del desafío futuro sigue siendo incierta”.

    Por ahora, los sistemas actuales tienen pocas oportunidades de causar daño significativo con estas tácticas. Pero la advertencia es clara: si no se invierte en investigación y en mecanismos de control, la IA podría desarrollar habilidades de manipulación difíciles de detectar en el futuro cercano.

    Las más leídas de Tecno

    1

    Ni la pava ni la tostadora: el electrodoméstico que sí o sí hay que desconectar en una tormenta

    2

    Ni en 22° ni en 24°: en qué temperatura se debe poner el aire acondicionado para ahorrar electricidad

    3

    Alerta astronómica: el cometa 3I/Atlas tendrá un encuentro inesperado con Júpiter que podría cambiar su rumbo

    4

    Paso a paso para ver tu resumen musical del año en YouTube

    5

    Los celulares que se quedan sin WhatsApp a partir de diciembre 2025

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    chatbotInteligencia artificialOpenAi

    Más sobre Tecno

    Cómo ver tu resumen musical del año en YouTube. (Foto: AdobeStock)

    Paso a paso para ver tu resumen musical del año en YouTube

    El 2026 será un año con un nivel de riesgo de ciberseguridad sin precedentes. (Foto: Adobe Stock).

    Atención: estas serán las amenazas de ciberseguridad más fuertes y peligrosas de 2026

    Por 

    Rodrigo Álvarez

    OpenAI tomó una decisión que podría marcar un antes y después para quienes usan sus herramientas de inteligencia artificial. (Foto: EFE/Ángel Colmenares).

    ChatGPT se suma a Google y empieza a restringir sus funciones en las cuentas gratuitas

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Ariana Grande protagoniza la nueva tapa de Interview con un impactante abrigo rojo de piel
    • Cuatro muertos y diez heridos en un tiroteo en un salón de fiestas en California
    • Video: dos adolescentes robaron un auto, escaparon y los atraparon dentro de un colectivo
    • Juana Repetto reflexionó sobre los cambios físicos durante su embarazo: “No me reconozco”

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Dólar
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit