TN

Temas de hoy:

  • Javier Milei
  • Elecciones 2025
  • Conmoción en Tres Arroyos
  • Selección argentina
  • Dólar hoy
  • Cristina Kirchner
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    El lado oscuro de la inteligencia artificial: así usan deepfakes y clones de voz para engañar a usuarios

    Cada vez más los ciberdelincuentes se valen de esta tecnología para infiltrarse en videoconferencias, especialmente en entornos corporativos donde se manejan datos sensibles, y engañar a usuarios.

    Rodrigo Álvarez
    Por 

    Rodrigo Álvarez

    30 de agosto 2024, 05:22hs
    Deepfake: crecen los fraudes con manipulación de imágenes creadas con inteligencia artificial
    El lado oscuro de la IA: crece uso de deepfakes y clones de voz en ciberataques a empresas y personas. (Foto: AdobeStock)

    La generación de contenido falso o deepfakes experimentó un gran desarrollo en los últimos años. Ya no solo se trata de fotos y videos alterados con inteligencia artificial, sino de una tecnología mucho más madura que ahora apunta a la falsificación de voz, también conocida como deepvoice.

    Sin embargo, este increíble avance, que permite crear contenido audiovisual y sonoro altamente realista, ya fue adoptado por ciberdelincuentes para llevar a cabo fraudes, suplantaciones de identidad y espionaje corporativo.

    Leé también: Preocupa el crecimiento del uso de deepfakes de famosas en sitios de videos para adultos

    Expertos de Kaspersky alertaron que estas innovaciones también utilizadas para evadir controles de seguridad, por ejemplo, para aprovechar vulnerar accesos por datos biométricos, así como para manipular información y cometer otros ciberataques.

    El lado oscuro de la IA: crece uso de deepfakes y clones de voz en ciberataques a empresas y personas. (AdobeStock)
    El lado oscuro de la IA: crece uso de deepfakes y clones de voz en ciberataques a empresas y personas. (AdobeStock)

    Diferentes investigaciones revelaron que el uso de deepfakes en ciberataques aumentó un 13% en comparación con 2023. Esto significa que, cada vez más, los ciberdelincuentes se valen de esta tecnología para infiltrarse en videoconferencias, especialmente en entornos corporativos donde se manejan datos sensibles.

    Para crear estos deepfakes, la inteligencia artificial generativa puede entrenarse con fotos reales de una persona y así generar un número infinito de imágenes convincentes de ella para integrarlas en un video.

    “Los avances en esta innovación y el aprendizaje automático propician la creación de contenido multimedia falso cada vez más realista, ya que son tecnologías con la capacidad de aprender a partir de datos no estructurados, como el rostro o los movimientos humanos”, explicó en un comunicado enviado a TN Tecno Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.

    La manipulación de contenido audiovisual mediante deepfakes no solo se limita a la suplantación de identidad, sino que también se usa en campañas de desinformación y en la creación de contenido engañoso que puede dañar la reputación de individuos y organizaciones. Por ejemplo, se reportaron varios casos en los que se crean videos falsos de figuras públicas, con el objetivo de difundir información errónea o comprometedora.

    Leé también: ¿Estás seguro que podés reconocer una deepfake? Un estudio dice que la gente está demasiado confiada

    Este tipo de ataque se ha vuelto particularmente atractivo para los hackers, quienes pueden hacerse pasar por empleados o directivos de una empresa para obtener información valiosa o realizar fraudes financieros.

    Estas mismas técnicas de aprendizaje automático pueden emplearse para desarrollar contenidos de voz artificial y, mientras la tecnología siga expandiéndose, podría ser explotada por los estafadores para crear contenidos engañosos de audio aún más accesibles.

    Las víctimas de los deepfakes

    En principio, las personas cuyas muestras de voz o video están disponibles en Internet, como celebridades y figuras públicas, son las más propensas a ser víctimas de suplantación.

    Por otra parte, el uso de deepfakes con propósitos maliciosos también perjudica a otros individuos o sectores, como el sistema bancario, y ya juega un papel importante en fraudes financieros con tácticas y aplicaciones capaces de eludir los mecanismos de verificación biométrica. Así, permite a ciberdelincuentes obtener acceso no autorizado a cuentas bancarias e información confidencial.

    El mercado negro de los deepfakes

    A pesar de disponer abiertamente de herramientas de creación de deepfakes, los delincuentes buscan creadores que puedan producir contenido realista, de alta calidad e incluso en tiempo real, dado que simular movimientos, expresiones faciales o voces de manera fluida y natural es un reto para los algoritmos que deben capturar y reproducir detalles muy específicos.

    Leé también: Abuso sexual digital: “Pusieron mi cara en un video porno usando tecnología deepfake”

    Por eso, existe un mercado específico de deepfakes en la dark web, donde criminales ofrecen servicios para crear contenido falso y hasta tutoriales con consejos sobre cómo seleccionar el material de origen o cómo intercambiar caras y voces para generar una falsificación convincente.

    La experta explicó que la demanda de estos contenidos en este mercado es tan alta que supera la oferta existente, por lo que en el futuro cercano es probable que se registre un aumento todavía más significativo en los incidentes relacionados con contenido falso de alta calidad. Esto representa un verdadero riesgo para el panorama de ciberseguridad: de acuerdo a cifras de Kaspersky, más de la mitad de los usuarios en América Latina no sabe qué es un deepfake. Así lo afirman el 75% de los peruanos, el 72% de los chilenos y mexicanos, el 67% de argentinos, 66% de brasileros y 63% de colombianos.

    “La exposición de datos personales sensibles en línea, como imágenes del rostro o audios, implica un reto significativo para proteger esta información contra accesos no autorizados y un uso malintencionado para crear contenido falso o suplantar la identidad de otras personas. Esto puede causar daño material o monetario, así como un impacto psicológico y de reputación para las víctimas”, aseguró Isabel Manjarrez. Y agregó: “Por eso, es esencial establecer pautas y estándares claros para la creación y el uso de deepfakes, garantizando la transparencia y responsabilidad en su implementación. No hay que temer a la IA, es una herramienta con un gran potencial, pero depende del ser humano hacer un uso ético de ella”.

    Leé también: El increíble deepfake de Tom Cruise: ¡es tan real que da miedo!

    Cómo identificar un deepfake

    Los especialistas de Kaspersky compartieron con TN Tecno algunas claves para a identificar un deepfake:

    • La fuente del contenido y la información que comparte son sospechosas: prestá atención a correos electrónicos, mensajes de texto o voz, llamadas, videos u otro contenido multimedia que veas o recibas, especialmente si comunican información extraña o ilógica. Confirmala en fuentes de información oficiales.
    • Las condiciones e iluminación en un video son inconsistentes: desconfiá si detectás anomalías en el fondo del video. Evaluá si la iluminación de la cara de la persona corresponde con el entorno, las incoherencias en la iluminación pueden indicar manipulación.
    • Los movimientos faciales y corporales son inusuales: sospechá si las expresiones de la cara o cuerpo de la persona del video son poco naturales, como un parpadeo extraño. Comprobá que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas para el contexto del video.
    • Los audios falsos pueden tener distorsiones de voz: prestá atención a la calidad del sonido. Sospechá si identificás un tono monótono y antinatural en la voz, o si hay ruidos extraños de fondo.
    • Para mantenerse protegido, es importante informarnos: conocer sobre la existencia de los deepfakes y educarse sobre las tecnologías de manipulación digital. Cuanto más consciente seas, mejor podrás detectar posibles fraudes.

    Las más leídas de Tecno

    1

    Amenazar a la IA, el insólito consejo de uno de los fundadores de Google para conseguir mejores respuestas

    Por 

    Uriel Bederman

    2

    La atmósfera de Plutón es única en el Sistema Solar, revela el Telescopio James Webb

    3

    Una joven contrató a una mujer para que le cocine para toda la semana y sorprendió al contar cuánto le sale

    4

    WWDC 2025: ¿qué presentará Apple (y qué no) en sus conferencias para desarrolladores de la próxima semana?

    5

    Un joven quiso comprar una campera online, pero la respuesta del vendedor lo sorprendió: “No te vendo más”

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    ciberseguridaddeepfakesCiberdelincuentes

    Más sobre Tecno

    El video más lindo de su vida: un nene jugó a que era Franco Colapinto junto a su abuela y enterneció a todos.

    El video más lindo de su vida: un nene jugó a que era Franco Colapinto junto a su abuela y enterneció a todos

    IPhone ayuda a sus usuarios a recordar dónde estacionaron el auto. (Foto: Adobe Stock).

    El truco de iPhone que pocos conocen para saber dónde quedó estacionado el auto

    Un ilustración artística de la formación de Transitorios Nucleares Extremos o ENT. (Foto: Observatorio W. M. Keck/Adam Makarenko)

    Astrónomos descubren las explosiones más poderosas desde el Big Bang: “Nucleares y extremas”

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Javier Milei se reunió con Giorgia Meloni en Roma: firmaron un acuerdo entre YPF y la petrolera italiana
    • Ni de carne ni de pescado: cómo hacer pastel con una verdura para que salga contundente
    • Detuvieron al policía que baleó al nene de 7 años en Ciudad Evita
    • Evangelina Anderson publicó un sensual video desde la cama para compartir su talento oculto

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit