TN

Temas de hoy:

  • Javier Milei
  • Presión financiera
  • Dólar hoy
  • Franco Colapinto
  • Causa Spagnuolo
  • Temporal en el AMBA
  • River Plate
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Inteligencia Artificial: más de la mitad de los usuarios de chatbots no verifica la información que recibe

    La falta de chequeo de datos expone a los usuarios a errores, sesgos y contenidos manipulados.

    Rodrigo Álvarez
    Por 

    Rodrigo Álvarez

    20 de septiembre 2025, 16:05hs
    Inteligencia Artificial: más de la mitad de los usuarios de chatbots no verifica la información que recibe
    Inteligencia Artificial: más de la mitad de los usuarios de chatbots no verifica la información que recibe. (Imagen: GeminiAI)
    Compartir

    Desde la aparición de ChatGPT a fines de 2022, la Inteligencia Artificial se convirtió en una herramienta cotidiana para millones de personas en todo el mundo, que la usan para hacer consultas rápidas, redactar informes, hacer resúmenes o recibir apoyo en tareas laborales, académicas y creativas.

    Los chatbots revolucionaron internet, el trabajo y el estudio al ofrecer soluciones inmediatas, pero un uso descuidado puede exponer a los usuarios a riesgos importantes.

    Leé también: Infancias e internet: cómo hablar con los chicos sobre los riesgos ocultos de la red

    Según una encuesta realizada por ESET a más de 1000 personas de países de América Latina el 80% de los encuestados afirmó que usá algún tipo de IA. De ellos, el 45% la emplea con frecuencia, mientras que el 35% lo hace de manera ocasional.

    La falta de chequeo de datos expone a los usuarios a errores, sesgos y contenidos manipulados. (Imagen: GeminiIA)
    La falta de chequeo de datos expone a los usuarios a errores, sesgos y contenidos manipulados. (Imagen: GeminiIA)

    Sin embargo, un dato preocupante surgió al analizar los hábitos de verificación: más de la mitad no revisa siempre la información que recibe. En detalle, el 14% admite no hacerlo nunca y el 39% solo a veces.

    Este descuido puede ser riesgoso, dado que los modelos de IA, aunque potentes, pueden generar errores, información sesgada o respuestas manipuladas a través de técnicas como el prompt injection, donde un usuario malintencionado induce al sistema a dar respuestas falsas o incorrectas.

    “Para temas sensibles como salud, finanzas o asuntos legales, siempre es recomendable contrastar la información con fuentes confiables y oficiales”, advirtieron desde ESET.

    Leé también: La inteligencia artificial: ¿una nueva cómplice para cometer delitos?

    Datos personales: un descuido frecuente

    Otro hallazgo relevante es la forma en que los usuarios manejan su información personal y laboral. El 40% comparte datos sensibles con los chatbots, ya sea de manera frecuente o esporádica. Pero todavía más preocupante es que casi el 60% no lee las políticas de privacidad y solo la mitad implementa medidas concretas para proteger su información.

    Evitar compartir contraseñas, datos bancarios o información sensible es clave, ya que estos datos pueden ser procesados y, en algunos casos, utilizados para entrenar futuros modelos de IA. Revisar periódicamente configuraciones de privacidad y políticas de uso ayuda a minimizar riesgos y a entender cómo se almacenan y emplean los datos compartidos.

    Leé también: Así es el libro de cuentos para chicos hecho con IA que concientiza sobre los peligros de internet y las redes

    Optimismo y riesgos a futuro

    A pesar de estos descuidos, la IA genera expectativas positivas: el 80% de los encuestados la considera beneficiosa. No obstante, un 43% reconoce que su uso puede traer riesgos. Entre las principales preocupaciones se encuentran:

    • Fraudes y estafas (65%)
    • Deepfakes y noticias falsas (47%)
    • Falta de privacidad y recopilación de datos (45%)

    Justamente, estos miedos se transformaron en peligros concretos: el auge de la IA potenció modalidades de fraude digital más sofisticadas. Desde correos de phishing convincentes hasta clonación de voces en segundos, los ciberdelincuentes aprovechan la tecnología para engañar a las víctimas.

    Los deepfakes y las fake news también representan un riesgo real: estudios del MIT muestran que las noticias falsas tienen más probabilidades de ser compartidas que las reales, un fenómeno que sigue vigente en redes sociales y foros.

    Leé también:Crece el uso de la Inteligencia Artificial en consultas de salud: ¿ChatGPT es confiable como un médico?

    El análisis de los resultados evidencia que la adopción de la IA es alta, pero los hábitos responsables todavía son bajos. La falta de verificación de la información, el escaso cuidado en la gestión de datos personales y la desatención a las políticas de privacidad son señales claras de que los usuarios deben ser más críticos y conscientes.

    No se trata de temerle a la tecnología, sino de aprender a usarla de manera segura y crítica. El desafío es evidente: convertir el uso de la Inteligencia Artificial en una práctica confiable, informada y segura, que potencie sus beneficios sin exponerse a riesgos innecesarios.

    Las más leídas de Tecno

    1

    Alerta gamer: Steam dejará de ser compatible en una gran cantidad de computadoras en 2026

    2

    Día del estudiante: estos son los riesgos de compartir fotos y videos del festejo en las redes sociales

    Por 

    Rodrigo Álvarez

    3

    “Hay una enseñanza”: la inesperada amistad entre un perro y un cuervo rescatado que emociona

    4

    Dos amigos convierten computadoras viejas en consolas terapéuticas y las donan a hospitales pediátricos

    Por 

    Rodrigo Álvarez

    5

    Habla el hombre de la sonrisa más famosa de Internet: de la foto que lo hizo meme a los fans en todo el mundo

    Por 

    Yanina Sibona

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialChatGPTPrivacidad

    Más sobre Tecno

    La IA ayuda a determinar que cepas de gripe deberían incluirse en las siguientes vacunas estacionales. (Foto: MIT CSAIL)

    VaxSeer, el sistema de IA que predice cómo serán las gripes para ayudar al diseño de las vacunas

    Por 

    Uriel Bederman

    Los ciberdelincuentes aprovechan el Día de la primavera y el Estudiante para robar datos y activar estafas. (Imagen generada con GeminiAI).

    Día del estudiante: estos son los riesgos de compartir fotos y videos del festejo en las redes sociales

    Por 

    Rodrigo Álvarez

    Adiós a Steam: la plataforma de videojuegos dejará de funcionar en muchas computadoras a partir de esta semana. (Foto: AdobeStock)

    Alerta gamer: Steam dejará de ser compatible en una gran cantidad de computadoras en 2026

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Colapinto sale por delante de Gasly y va en busca de repetir su hazaña en el GP de Azerbaiyán
    • Dar todo es la trampa de la sobreprotección
    • “Suecia nunca vio algo así”: crece el fenómeno de las pandillas en uno de los países “más seguros del mundo”
    • ¿Puede la IA hacer buena literatura?: responden escritores, críticos y editores

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Dólar
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit