TN

Temas de hoy:

  • Javier Milei
  • "Dólares del colchón"
  • Franco Colapinto
  • Horror en Villa Crespo
  • Dólar hoy
  • TN Cultura
  • Venezuela
  • Boca Juniors
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Estafas telefónicas con IA: cuidado con el impostor artificial

    (*) Columnista invitado. Los último informes muestran un preocupante aumento de las estafas por clonación de vos. Qué podemos hacer para evitarlas.

    Fabio Sánchez
    Por 

    Fabio Sánchez

    09 de julio 2023, 07:13hs
    La IA será un complemento a nuestras habilidades.
    Las tecnologías de IA son cada vez más baratas y accesibles (Foto: AdobeStock)

    El último reporte de inteligencia artificial y ciberseguridad de McAfee aborda uno de los temas del momento y lo titula sin vueltas: Beware the artificial impostor, es decir, Cuidado con el impostor artificial. Se trata de la encuesta más extensa hasta el momento sobre las estafas telefónicas con clonación de voz, un fenómeno que se ha extendido de forma exponencial en los últimos meses.

    De acuerdo a los datos recogidos por McAfee en lo que va de 2023, esta nueva amenaza que utiliza la tecnología de clonación de voz con inteligencia artificial es una versión moderna del ya conocido “Hola, mamá” u “Hola, abuelo” (todos conocemos al menos un caso), en la que un delincuente, mediante una llamada telefónica, crea una situación de estrés tan grande que el damnificado termina creyendo que está hablando de verdad con ese familiar que está pidiéndole ayuda (la asistencia, invariablemente, se cobra en metálico). La introducción de la tecnología en este viejo esquema hace que sea mucho más difícil de detectar, e incluso que no haga siquiera falta crear una situación estresante, para conseguir el objetivo.

    Leé también: Usaron inteligencia artificial para estafar a un empresario por videollamada: le sacaron 600 mil dólares

    Sólo en los Estados Unidos, se estima que en 2022 esta estafa generó pérdidas por 2.600 millones de dólares, una tendencia que también está al alza en otros países. En el Reino Unido, por ejemplo, una versión de esta estafa realizada solo por WhatsApp generó pérdidas por 1,5 millones de libras en sólo cuatro meses, mientras que en Australia, una extendida estafa con mensajes de texto al estilo “Hola, mamá” resultó en una pérdida promedio por víctima de 5.000 dólares.

    La huella digital que permite las estafas

    Estos datos del año pasado, en el cual no estaba todavía tan extendido el uso de estas tecnologías, sólo muestran que lo peor está por venir. Es que la mayor disponibilidad y sofisticación de las herramientas de inteligencia artificial están cambiando las reglas del ciberdelito. A esto se suma que estas herramientas de clonación de voz con inteligencia artificial son baratas y fáciles de usar: la época en la que era necesario tener tiempo, capacidad técnica y talento para desarrollar exitosamente una estafa de estas características ya es cosa del pasado.

    A esta disponibilidad de medios técnicos se suma quizás el apoyo más importante para estas iniciativas y tiene que ver con la regularidad con la que compartimos nuestra voz. La encuesta que encargó McAfee para entender este fenómeno encontró que el 53% de todos los adultos encuestados comparten su voz en línea al menos una vez a la semana, y el 49% lo hace hasta 10 veces en el mismo período. Y todo esto sin tener en cuenta nuestros propios videos en redes sociales como Instagram o TikTok. Esta huella digital resulta fundamental si tenemos en cuenta que sólo hacen falta algunos segundos de un live para clonar exitosamente una voz.

    Leé también: Intentaron estafarla por una llamada telefónica, pero ella fue más astuta: “La mente más rápida del oeste”

    En cuanto a la regularidad con la que se dan estas estafas con inteligencia artificial, una cuarta parte de los adultos encuestados por McAfee dijo haber tenido alguna experiencia vinculada con una estafa de voz con IA: uno de cada diez lo sufrió en carne propia, mientras que el 15% manifiesta conocer a alguien que le ha sucedido. En general, el 36% de todos los encuestados dijeron que nunca habían oído hablar de estafas con herramientas de clonación de voz, lo que demuestra la necesidad de una mayor educación y conciencia sobre esta nueva amenaza que va en aumento.

    Qué podemos hacer para evitar estafas con  inteligencia artificial (Foto: Ivan/Pexels)
    Qué podemos hacer para evitar estafas con inteligencia artificial (Foto: Ivan/Pexels)

    La encuesta de McAfee también ahonda en el público elegido para estas estafas y los mensajes. Aunque el 45% de los encuestados dijo que respondería positivamente a una solicitud de dinero por parte de un amigo o ser querido, algunos de los escenarios inventados por los estafadores son más exitosos que otros. El primero de la lista (48%) involucra a un accidente automovilístico, seguido de un robo (47%), un celular o una billetera perdidos (43%), o un pedido de ayuda de un amigo que está de viaje en el exterior (41%). Pero el éxito de la historia también depende del personaje principal. El 40% manifestó que es más probable que responda a su pareja o cónyuge, o su madre (24%), mientras que los padres de más de 50 años tienen más probabilidades de responder positivamente a un mensaje si proviene de un niño (41%). Vale la pena señalar que la mayoría de los casos registrados por McAfee son de padres o abuelos que informan que un ciberdelincuente clonó la voz de un hijo o nieto y se hizo pasar por ellos.

    ¿Qué podemos hacer para protegernos ante estas estafas?

    1. Según McAfee, lo primero es establecer una “palabra segura” que funcione como un código entre familiares y amigos en situaciones de emergencia. Esta planificación podría hacer la diferencia y hacer sonar la alarma tempranamente ante un caso de estafa por clonación de voz.
    2. La segunda es desconfiar de la fuente, especialmente si se trata de un número desconocido. En esos casos, lo mejor es pedir algunos datos para cerciorarnos de que estamos hablando con quien creemos hablar, incluso desde otro número.
    3. La tercera recomendación, quizás la más difícil, es controlar las emociones y cuestionar todo. ¿Se trata realmente de la persona que dice ser? ¿El contexto es verosímil? ¿Es algo que realmente podría pedir? Estos cuestionamientos también podrían hacer la diferencia.
    4. La última recomendación tiene que ver con las llamadas desconocidas. En la época que estamos transitando resulta fundamental elegir cuáles atender y cuáles dejar pasar: en última instancia, analizar en frío un mensaje de buzón de voz hace que prácticamente cualquier estafa peligre.

    (*) Fabio Sánchez es Ingeniero de sistemas, máster en arquitectura de TI (Tecnología de la Información) y director de Ciberseguridad de OCP TECH.

    Las más leídas de Tecno

    1

    El hijo de una reconocida influencer murió tras caer en la pileta de su casa: los detalles de la tragedia

    2

    Los directivos de las empresas se clonan con Inteligencia Artificial para aliviar su carga laboral

    3

    La NASA fotografió un atardecer en Marte: así se ve una puesta de Sol en el planeta rojo

    4

    Apple anunció la fecha de lanzamiento del iOS19: estas serán las mejoras que tendrá el nuevo sistema operativo

    5

    Los mejores prompts y consejos para organizar un viaje con ChatGPT

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Estafas virtualesInteligencia artificial

    Más sobre Tecno

    Apple anunció la fecha de lanzamiento de iOS19: estas serán las mejoras que tendrá el nuevo sistema operativo. (Foto: Creada con ChatGPT)

    Apple anunció la fecha de lanzamiento del iOS19: estas serán las mejoras que tendrá el nuevo sistema operativo

    La NASA fotografió un atardecer en Marte: así se ve una puesta de Sol en el planeta rojo. (Imagen ilustrativa GeminiAI)

    La NASA fotografió un atardecer en Marte: así se ve una puesta de Sol en el planeta rojo

    Interpol y Microsoft desarticularon Lumma, la herramienta de robo de datos más usada por ciberdelincuentes. (Imagen: GeminiAI)

    Interpol y Microsoft desarticularon Lumma, la herramienta de robo de datos más usada por ciberdelincuentes

    Por 

    Rodrigo Álvarez

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Un ministro cordobés cruzó a Milei por no incluir a todos los cultivos en la baja de retenciones
    • Argentina avanza en la apertura del mercado chino para exportar más productos cárnicos
    • Por el temor al resurgimiento de la guerra comercial, la soja y los cereales cayeron en Chicago
    • Horóscopo de hoy, sábado 24 de mayo de 2025

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit