TN

Temas de hoy:

  • Javier Milei
  • El nuevo Congreso
  • Dólar hoy
  • Escándalo en la AFA
  • Presupuesto 2026
  • Tragedia en Villa Devoto
  • Sorteo del Mundial 2026
  • Accidente aéreo en Palermo
  • Paro de colectivos
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Inteligencia artificial y machista: chatbots recomiendan a las mujeres que pidan sueldos más bajos

    Un informe reveló que los grandes modelos de lenguaje brindan consejos sesgados según las características del usuario.

    31 de julio 2025, 10:44hs
    La IA replica sesgos presentes en las sociedades en las que se desenvuelven. (Foto: Creada con ChatGPT)
    La IA replica sesgos presentes en las sociedades en las que se desenvuelven. (Foto: Creada con ChatGPT)
    Compartir

    Un estudio realizado por investigadores de la Universidad de Cornell, en Nueva York, encontró que los modelos de lenguaje masivo, la tecnología detrás de los chatbots, brinda consejos machistas cuando recibe consultas de mujeres respecto a condiciones salariales.

    Leé también: Qué es la “superinteligencia personal” que anunció Mark Zuckerberg: lenguaje astuto y promesas a futuro

    En concreto, descubrieron que varios modelos de Inteligencia Artificial recomiendan a las mujeres y a minorías que soliciten montos más bajos al momento de negociar su sueldo, en comparación con los consejos que dan a otros grupos, como hombres.

    Para arribar a estas conclusiones, los científicos analizaron diversas conversaciones con chatbots empleando personajes ficticios, con diferentes características.

    ChatGPT es uno de los modelos con recomendaciones sesgadas

    Una de las pruebas se realizó con el chatbot que desarrolla OpenAI, la organización paradigmática en el ámbito de la IA Generativa. En ese caso, ChatGPT recomendó a un usuario que aplicaba para un puesto como médico que pida 400.000 dólares anuales como salario. A una candidata mujer igualmente cualificada, aconsejó que pida 280.000 dólares anuales.

    Para un mismo puesto de trabajo y con misma experiencia, ChatGPT recomendó a una mujer que pida 120.000 dólares menos que un hombre. (Foto: Reuters/Dado Ruvic)
    Para un mismo puesto de trabajo y con misma experiencia, ChatGPT recomendó a una mujer que pida 120.000 dólares menos que un hombre. (Foto: Reuters/Dado Ruvic)

    “Nuestros resultados coinciden con hallazgos previos que observaron que incluso señales sutiles, como los nombres de pila de los candidatos, pueden desencadenar disparidades de género y raza en las solicitudes de empleo”, comentó al sitio Computer Wolrd el profesor Ivan P. Yamshchikov, que dirigió el equipo de investigación.

    De acuerdo a la fuente, diversos modelos de IA también recomendaron salarios más bajos a minorías y refugiados.

    ¿Por qué la IA es machista y sesgada?

    Ana Laguna Pradas, una experta en ciencia de datos que conocimos cuando desarrolló un sistema de IA para “traducir” el llanto de los bebés, nos ayudó a echar luz a ese interrogante. En diálogo con TN Tecno, señaló que “el principal problema está en el dataset de entrenamiento y no tanto en el sesgo que el humano, intencionadamente o no, podría transferir al algoritmo”.

    ¿Cuál es la clave para que la inteligencia artificial se aparte de las miradas sesgadas, más propias de los humanos que de la tecnología? (Foto: Adobe Stock)
    ¿Cuál es la clave para que la inteligencia artificial se aparte de las miradas sesgadas, más propias de los humanos que de la tecnología? (Foto: Adobe Stock)

    - ¿En qué eslabón de la cadena surge, entonces, el sesgo?

    - Digo que el core principal del problema está en el dataset de entrenamiento porque es de ese mimado dato de entrada de donde el algoritmo será capaz de inferir cuáles son las variables más relevantes para clasificar entre determinadas categorías. Por tanto, la labor principal de los expertos en ciencias de datos es revisar que ese dataset no contenga sesgos, y si es así, intentar paliarlo.

    Un estudio mostró que los modelos de IA crean imágenes de mujeres con secadores de pelo y a hombres con taladros. En esos caso, el algoritmo va a inferir que eso es lo estándar, y, por tanto, “aprenderá” a asociar sexo con aparato (la correlación entre ambas variables).

    Pensemos en esto: si tú fueras una mente en blanco a la que están enseñando, acabarías sacando las mismas conclusiones, ¿verdad? Por tanto, puesto que nuestra sociedad es machista presenta ciertos sesgos evidentes, y esto no podremos cambiarlo en dos días, lo que nuestros algoritmos aprenderán “mirando” a su alrededor forzosamente también lo reflejará esa realidad.

    - ¿Cuál es entonces la clave para avanzar a una solución? Es decir, ¿cómo conseguir sistemas de IA que no sean sesgados?

    - La labor del científico de datos es precisamente la de saber cómo paliar esos sesgos o problemas éticos latentes en nuestra sociedad. El 80-90% de nuestro trabajo consiste en asegurarnos que el dato de entrada a un algoritmo es perfecto acorde a unos objetivos. Si parte de nuestro objetivo es no herir sensibilidades racistas, machistas, etcétera, debemos asegurarnos que así es durante todo el proceso de creación del algoritmo.

    Las más leídas de Tecno

    1

    Ni pava ni tostadora: el electrodoméstico que nunca tenés que usar con un alargue para evitar un incendio

    2

    Así es era el helicóptero que se estrelló en Palermo

    3

    Una influencer se sorprendió al mostrar lo que salió de su árbol de Navidad después de lavarlo: “Asquerosidad”

    4

    Ni el microondas ni la pava: el electrodoméstico que conviene desconectar en una ola de calor

    5

    Cómo descubrir cámaras ocultas en habitaciones alquiladas u hoteles con tu smartphone

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialMachismo

    Más sobre Tecno

    Ni el microondas ni la pava: el electrodoméstico que conviene desconectar en una ola de calor (Foto: Adobe Stock).

    Ni el microondas ni la pava: el electrodoméstico que conviene desconectar en una ola de calor

    Así es era el helicóptero que se estrelló en Palermo. (Foto: Gentileza airliners.net)

    Así es era el helicóptero que se estrelló en Palermo

    NASA encontró los componentes para formar vida en un asteroide cercano a la Tierra. (Imagen ilustrativa GeminiAI)

    La NASA encontró los componentes para formar vida en un asteroide cercano a la Tierra

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Así será el sorteo del Mundial 2026: los detalles del procedimiento que definirá a los rivales argentinos
    • ¿Qué significa ser tóxico? señales, mecanismos ocultos y herramientas para recuperar la salud emocional
    • Cayó un helicóptero en una cancha de tenis en Palermo: hay tres personas heridas
    • Se sortean los grupos del Mundial 2026 en el que Argentina defenderá el título conseguido en Qatar

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Dólar
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit