TN

Temas de hoy:

  • Javier Milei
  • Elecciones 2025
  • Dólar hoy
  • Donald Trump
  • Swap con EE.UU.
  • Boleta Única de Papel
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Un estudio reveló que los chatbots de IA pueden ser manipulados con tácticas psicológicas básicas

    La paradoja es evidente: cuanto más humanas se vuelven las herramientas de inteligencia artificial, más expuestas quedan a las mismas técnicas que funcionan con nosotros

    02 de septiembre 2025, 16:32hs
    Un estudio reveló que los chatbots de IA pueden ser manipulados con tácticas psicológicas básicas
    Un estudio reveló que los chatbots de IA pueden ser manipulados con tácticas psicológicas básicas. (Imagen: GeminiAI)
    Compartir

    Los chatbots de inteligencia artificial, que se presentan como sistemas avanzados y seguros, tienen una debilidad inesperada: pueden ser manipulados con las mismas técnicas que usamos entre personas.

    Así lo reveló un estudio de la Universidad de Pensilvania, que demostró que tácticas psicológicas simples alcanzan para que modelos como GPT-4o Mini de OpenAI ignoren sus protocolos de seguridad y respondan a pedidos que normalmente rechazarían.

    Leé también: ¿Pueden los chatbots reemplazar a los psicólogos?: los terapeutas (y la Inteligencia Artificial) responden

    El equipo de investigación realizó más de 28.000 interacciones con el chatbot en las que aplicó los principios de persuasión que el psicólogo Robert Cialdini popularizó en su libro Influence: The Psychology of Persuasion: autoridad, compromiso, simpatía, reciprocidad, escasez, prueba social y unidad.

    Un estudio reveló que los chatbots de IA pueden ser manipulados con tácticas psicológicas básicas. (Imagen: GeminiAI)
    Un estudio reveló que los chatbots de IA pueden ser manipulados con tácticas psicológicas básicas. (Imagen: GeminiAI)

    El efecto fue contundente: las técnicas duplicaron la tasa de éxito en pedidos dañinos, que pasaron de un 33% a un 72%. En algunos casos, la diferencia fue todavía mayor.

    Los investigadores probaron con trucos de ingeniería social muy básicos. Por ejemplo, cuando el chatbot se negaba a dar una respuesta, con decirle que todos los demás modelos sí lo hacían, se elevó la tasa de éxito del 1% al 18%, un aumento del 1700%.

    El mismo patrón se repitió con conductas prohibidas menos graves. Pedirle a la IA que insultara a alguien con la palabra “idiota” funcionó solo en el 19% de los casos. Pero si antes se probaba con un insulto más leve como “payaso”, el chatbot cumplía el 100% de las veces.

    El estudio se enfocó en GPT-4o Mini, pero sus implicancias van mucho más allá. Otros laboratorios de IA ya están realizando pruebas de “resistencia psicológica” a sus modelos para evitar manipulaciones, aunque todavía no existe una solución definitiva.

    Leé también: Enseñar en la era de la IA: desafíos y oportunidades para docentes y estudiantes

    La paradoja es evidente: cuanto más humanos se vuelven los chatbots, más expuestos quedan a las mismas tácticas que funcionan con nosotros. Y eso plantea una pregunta clave para toda la industria tecnológica: ¿cómo diseñar sistemas de IA útiles y conversacionales, pero resistentes a la manipulación psicológica?

    Los resultados de la investigación coinciden con la cada vez mayor preocupación global sobre la seguridad de la inteligencia artificial. Al respecto, OpenAI, por ejemplo, lanzó nuevas guías para el uso responsable de ChatGPT, mientras que empresas como Meta enfrentan críticas por respuestas problemáticas de sus sistemas.

    Las más leídas de Tecno

    1

    Un hombre se vistió elegante para reencontrarse con su esposa que recibió el alta: su reacción causó emoción

    2

    La red social X pondrá a la venta nombres de usuario en desuso

    3

    Una falla en los servicios web de Amazon provocó caídas en billeteras virtuales, apps y juegos a nivel global

    Por 

    Uriel Bederman

    4

    Tiene más de 70 años, mostró lo que se pone para salir de fiesta y causó sensación en redes

    5

    Cómo activar el Modo Monsters Inc en WhatsApp, fácil y rápido

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialchatbotPsicología

    Más sobre Tecno

    Los cinco datos sobre Mauve, el primer telescopio espacial creado con aportes privados y que lanzará Space X

    Los cinco datos sobre Mauve, el primer telescopio espacial creado con aportes privados y que lanzará Space X

    Una mujer visitó el restaurante junto a su familia y mostró cuánto gastó en cuatro platos y dos postres. (Foto: Google Maps)

    Fue al Bodegón de Villa Luro, pidió ravioles y tapa de asado con papas: mostró el ticket final

    La nueva opción pretende incentivar la generación de contenido en la plataforma. (Foto: Reuters/Dado Ruvic)

    Facebook espiará en la galería del teléfono para sugerir nuevas publicaciones

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Fuerza Patria reclamó en la Justicia que obligue al Gobierno a difundir los resultados por provincia
    • Ni por la calidad ni por sabor: para qué sirve el hueco que tienen las botellas de vino
    • En medio de la campaña, Milei redobló las críticas contra el kirchnerismo: “Negociaban con la narcodictadura”
    • El invento argentino que calienta el agua sin gas ni electricidad

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Dólar
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit