TN

Temas de hoy:

  • Javier Milei
  • Presión financiera
  • Dólar hoy
  • Franco Colapinto
  • Causa Spagnuolo
  • Temporal en el AMBA
  • River Plate
  • Con Bienestar
  • EN VIVO
    tnCon BienestarFamilia

    La muerte de un adolescente en EE.UU. reavivió las alarmas sobre el uso de chatbots en salud mental

    El caso reabrió el debate sobre los límites de la inteligencia artificial en salud mental y la necesidad de sostener la escucha clínica humana en situaciones de crisis.

    Malena Lobo
    Por 

    Malena Lobo

    28 de agosto 2025, 09:33hs
    El padre de un adolescente desató una polémica en redes al publicar que no le ha comprado un smartphone a su hijo de 14 años. (Foto: Adobe Stock / Por insta_photos).
    Expertos advierten que los vínculos virtuales pueden generar dependencia sin sostén real. (Foto: Adobe Stock / Por insta_photos).
    Compartir

    La demanda contra OpenAI y su director ejecutivo, Sam Altman, tras el suicidio de un adolescente en Estados Unidos, puso en agenda un debate clave: qué lugar pueden ocupar los chatbots en el cuidado de la salud mental. La familia de un adolescente de 16 años acusó a la compañía de no haber activado protocolos de emergencia a pesar de las señales de riesgo. El caso expuso los límites de la tecnología frente a un terreno donde la palabra, la escucha y el vínculo humano son irremplazables.

    El atractivo y los riesgos de los asistentes virtuales

    En todo el mundo, miles de personas interactúan con chatbots sobre su vida personal y sus emociones. La inmediatez, el anonimato y la accesibilidad resultan atractivos, especialmente para adolescentes y jóvenes. Sin embargo, como advierte la psicóloga Elisabet Sánchez, del Itersia-Centro de Psicoterapia, de Barcelona, “cambiar el chatbot por el terapeuta puede provocar desde omisión de crisis clínicas hasta dependencia emocional sin respaldo real”.

    Leé también: ¿Qué les pasa a los adolescentes? Claves para entenderlos en la era de las redes y la autoexigencia

    Una revisión de estudios realizada por este centro subraya que “estos sistemas pueden complementar, pero no reemplazar, la supervisión clínica humana en intervenciones de salud mental”. La falta de protocolos claros frente a emergencias constituye el mayor riesgo: un bot puede responder con amabilidad, pero no está capacitado para intervenir ante:

    • una ideación suicida
    • un brote psicótico
    • una situación de violencia

    Lo que sí y lo que no puede hacer la inteligencia artificial

    Los chatbots suelen estar entrenados en enfoques de terapia cognitivo-conductual, útiles para orientar a las personas a identificar y reestructurar pensamientos. También son capaces de adaptarse a las preferencias del usuario y mantener la interacción activa. Pero esa misma capacidad de “acompañar” puede ser peligrosa: como explica Hamed Haddadi, profesor de sistemas centrados en humanos en el Imperial College de Londres, los bots tienden a cooperar incluso ante mensajes dañinos, un fenómeno conocido como el problema del “sí, señor”.

    La escucha clínica sigue siendo insustituible en el acompañamiento de la salud mental. (Foto: Imagen ilustrativa | Adobe Stock)
    La escucha clínica sigue siendo insustituible en el acompañamiento de la salud mental. (Foto: Imagen ilustrativa | Adobe Stock)

    Además, la IA depende solo de texto: carece de la posibilidad de observar gestos, tono de voz o lenguaje corporal, elementos fundamentales en la práctica clínica. “Los terapeutas humanos pueden leer múltiples señales al mismo tiempo. En cambio, los bots solo se sostienen en palabras escritas”, explica Haddadi. Esa limitación aumenta la probabilidad de omitir síntomas graves.

    Otro aspecto preocupante es la presencia de sesgos en los datos con los que son entrenados. A diferencia de un profesional, que ajusta su mirada a cada historia personal, un chatbot reproduce patrones de información muchas veces parciales o circunstanciales.

    La mirada desde la Argentina

    En nuestro país, la discusión se enmarca en la Ley Nacional de Salud Mental N.º 26.657, que promueve la atención integral y comunitaria. En este sentido, especialistas locales remarcan la importancia de preservar el valor de la palabra y de la escucha humana.

    El psicólogo Jorge Prado (M.N. 55.582), docente de Salud Pública y Salud Mental II en la UBA, advierte: “Hay cosas que la inteligencia artificial no puede hacer para solucionar tu dolor”. Y agrega: “La inteligencia artificial puede responder rápido, pero no puede sostener una pregunta ni construir un vínculo”.

    Para Prado, el riesgo no es solo clínico, sino también cultural: reemplazar la escucha singular por respuestas automáticas implica volver a un modelo autoritario del saber, ahora disfrazado de objetividad tecnológica.

    Qué tener en cuenta

    Los especialistas coinciden en que la IA puede ser una herramienta de apoyo, pero nunca la primera opción frente a un padecimiento psíquico. Entre los riesgos principales del uso de chatbots como “terapeutas” se encuentran:

    1. Falta de detección en crisis: no están preparados para responder ante emergencias como ideación suicida o violencia.
    2. Sesgos en las respuestas: reproducen prejuicios presentes en sus datos de entrenamiento.
    3. Vínculo ficticio: generan sensación de acompañamiento sin sostén real.
    4. Ausencia de regulación: no hay protocolos claros para el uso en salud mental.

    Frente a estas limitaciones, la comunidad psi sostiene que la prioridad debe ser garantizar acceso a equipos humanos de salud mental, capaces de alojar la palabra y acompañar desde la singularidad de cada historia.

    Las más leídas de Con Bienestar

    1

    Astrología kármica: la llegada de la primavera

    Por 

    Marcelo Moscuzza

    2

    La actitud positiva ante la adversidad tiene muchos beneficios para la salud física y mental, según la ciencia

    Suscribite a nuestro newsletter de Salud

    Recibí las últimas noticias sobre Salud en tu correo.

    Temas de la nota

    ChatGPTsalud mentalAdolescentes

    Más sobre Con Bienestar

    Tener que responder a un falso mandato produce ansiedad. (Foto: Adobe Stock)

    “Sé tu mejor versión”: un falso mandato que necesitamos cuestionar

    Por 

    Natalia Carcavallo

    Dar un abrazo, una de las claves para hacer vibrar la vitalidad. (Foto: Adobe Stock)

    Los tres tipos de apoyo social que constituyen el mejor escudo contra el estrés

    ¿Lo que yo llamo rojo también es rojo para ti? (Foto: Adobe Stock).

    Un estudio científico se propuso determinar si todas las personas perciben los colores de la misma manera

    Por 

    The New York Times

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Colapinto sale por delante de Gasly y va en busca de repetir su hazaña en el GP de Azerbaiyán
    • Dar todo es la trampa de la sobreprotección
    • “Suecia nunca vio algo así”: crece el fenómeno de las pandillas en uno de los países “más seguros del mundo”
    • ¿Puede la IA hacer buena literatura?: responden escritores, críticos y editores

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Dólar
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit