Fraude deepfake aumenta más del 1000 por ciento, los expertos dicen que es solo el comienzo

Por Autumn Spredemann
03 de agosto de 2023 9:55 AM Actualizado: 03 de agosto de 2023 9:55 AM

A medida que la línea entre la realidad y la ficción se vuelve más difícil de distinguir, los delincuentes en Internet necesitan solo dos horas para crear un producto «deepfake» realista generado por computadora que puede arruinar la vida de alguien.

El aumento de la popularidad de las fotos, el audio y los videos hiperrealistas desarrollados con inteligencia artificial (IA), comúnmente conocidos como falsificaciones profundas (deepfakes), se ha convertido en una sensación en Internet.

También les está dando a los villanos cibernéticos una ventaja en el mundo del crimen.

Entre 2022 y el primer trimestre de este año, el uso de deepfakes en el fraude se catapultó un 1200 por ciento solo en Estados Unidos.

Aunque no es sólo un problema estadounidense.

En el mismo análisis, los deepfakes utilizados con fines de estafa explotaron en Canadá, Alemania y el Reino Unido. En el estudio, Estados Unidos representó el 4.3 por ciento de los casos globales de fraude con deepfake.

Mientras tanto, los expertos en IA y los investigadores de delitos cibernéticos dicen que solo estamos en la punta del iceberg. La madriguera del conejo del potencial de fraude deepfake continúa.

“Creo que el incentivo número uno para que los ciberdelincuentes cometan delitos cibernéticos es la aplicación de la ley y su incapacidad para mantenerse al día”, le dijo Michael Roberts a The Epoch Times.

Roberts es investigador profesional y fundador de la empresa pionera Rexxfield, que ayuda a las víctimas de ataques en Internet.

También fundó PICDO, una organización de interrupción del crimen cibernético, y ha impartido educación contra la piratería para las ramas de los ejércitos de EE.UU., Australia y la OTAN.

El Sr. Roberts afirmó que los sistemas jurídicos del mundo occidental están «irremediablemente desbordados» por los casos de fraude en Internet, muchos de los cuales incluyen ataques deepfake. Además, los casos que se investigan sin contratar a una empresa privada se seleccionan cuidadosamente.

«E incluso así, no se resuelven», afirma.

El mercado de la detección de deepfakes se valoró en USD 3860 millones en 2020 y se espera que crezca un 42 por ciento anual hasta 2026, según un informe de HSRC.

Engaño

Imagínese recibir una llamada telefónica de un ser querido, diciendo entre lágrimas que ha sido secuestrado. Naturalmente, los secuestradores quieren dinero y la voz de su familiar da instrucciones sobre cómo entregar el rescate.

Puede estar convencido de que es la voz de su amado en el otro extremo, pero existe la posibilidad de que no lo sea.

Las estafas de audio falso o «clonación de voz» se han extendido como un reguero de pólvora en Estados Unidos este año, sorprendiendo a personas compasivas y no preparadas en varios estados.

Pero no se detiene allí. Los ataques deepfake pueden llegar de muchas formas. Estas estafas inteligentes también pueden aparecer como chats de video con alguien que conoces.

Pueden aparecer como la publicación en las redes sociales de un colega de mucho tiempo, discutiendo cómo una inversión en criptomonedas les permitió comprar la hermosa casa nueva que están señalando con entusiasmo en una foto.

«Tenemos muchas estafas con criptomonedas», dijo Roberts.

Los deepfakes también se utilizan para chantajear. Por lo general, implica la creación de un video aceptable o una foto de la víctima en una situación lasciva o comprometedora.

Luego, los atacantes exigen un rescate para no distribuir la falsificación entre los compañeros de trabajo, el jefe, la familia y los amigos de la víctima.

Foto de archivo de un hacker con su ordenador. (Nicolas Asfouri/AFP vía Getty Images)

Cada uno de esos ejemplos ya está sucediendo.

Pero para crear estas falsificaciones realistas, los delincuentes necesitan acceso a material como fotos, audio y video. Desafortunadamente, estas cosas no son difíciles de conseguir.

«Si alguien accede a sus fotos privadas, en su iCloud, eso le da toda la muestra, toda la tecnología… para hacer falsificaciones hiperrealistas», dijo Roberts.

Los perfiles de las redes sociales son un tesoro para los delincuentes que buscan crear estos productos.

Recuperar los bienes perdidos y la reputación de la víctima puede ser desalentador. Roberts señaló que los litigios contra los delitos cibernéticos son una batalla cuesta arriba. «Es largo, es arduo, es prolongado y es emocional y financieramente agotador».

Otros expertos de la industria de la IA dicen que no es solo la calidad de las falsificaciones lo que es un problema, sino también la cantidad.

“Tarde o temprano, las personas podrán generar cualquier combinación de píxeles de cualquier tipo de contenido. Y depende de usted filtrarlo”, le dijo Alan Ikoev a The Epoch Times.

El Sr. Ikoev es el director ejecutivo de Fame Flow, que crea anuncios autorizados de celebridades e influencers.

Como pionero del contenido autorizado generado por IA que involucra a celebridades, está muy familiarizado con el trabajo de sus nefastos homólogos.

Pero para contrarrestar estas estafas cada vez más sofisticadas, las personas deben sospechar de todo lo que ven en Internet. «Si no cuestionan, se convencen fácilmente», dijo Ikoev.

Discernir lo que es real o falso en Internet ya es un desafío. El ochenta y seis por ciento de los usuarios de Internet admitieron haber sido engañados por noticias falsas, según una encuesta de Ipsos a más de 25,000 participantes en 25 países.

A esto se suma un reciente estudio sobre ciberseguridad, que revela que casi la mitad del tráfico de Internet lo generan ahora bots.

Pero no todo son malas noticias. El Sr. Roberts sostiene que los delincuentes no se han dado cuenta de lo rápido que avanza la tecnología, que actualmente está superando a los «malos actores».

Sin embargo, se necesita vigilancia y tener un plan para repeler o contrarrestar los ataques de deepfake.

Movimientos y contramovimientos

El rápido avance de la tecnología en el fraude casi evoca la nostalgia de los días en que las estafas por Internet eran solo un correo electrónico de un príncipe autoproclamado en un país extranjero que necesitaba ayuda para transferir dinero.

La IA ha brindado a los ciberdelincuentes mejores herramientas, pero también puede usarse contra ellos.

«El desarrollo de herramientas avanzadas de detección de deepfake utilizando algoritmos impulsados por IA es crucial para combatir esta amenaza. Los esfuerzos de colaboración entre desarrolladores de IA, investigadores y empresas tecnológicas son esenciales para crear medidas de seguridad sólidas y aumentar la concienciación», dijo Nikita Sherbina, CEO de AIScreen, a The Epoch Times.

Sherbina dijo que las empresas pueden protegerse duplicando la tecnología. Esencialmente, combatir el fuego digital con fuego.

«Implemente sistemas avanzados de autenticación basados en IA, incluido el reconocimiento facial y de voz con autenticación de múltiples factores. El monitoreo y análisis continuos de los patrones de comunicación mediante algoritmos de IA también pueden ayudar a detectar y prevenir actividades fraudulentas», dijo.

Pero para los particulares, desbaratar o prevenir una estafa deepfake es más sencillo.

En caso de sospecha de un ataque de clonación de voz, el Sr. Roberts dijo: «Lo primero que debe hacer es decir: ‘Cariño, te devolveré la llamada'».

Señaló que los estafadores inventarán una excusa por la que no puede volver a llamar para verificar su identidad. Otro truco para descarrilar a los delincuentes que usan audio clonado para fingir un secuestro es hacerle preguntas a la persona que llama que no son de dominio público.

“Tenga esta conversación con su familia antes de que realmente suceda para que entiendan lo que está haciendo”, agregó el Sr. Roberts.

Hizo hincapié en la importancia de no utilizar direcciones de correo electrónico individuales con nombres completos o números relacionados con la fecha de nacimiento del usuario.

Además, nunca se debe reutilizar una contraseña de acceso. Roberts señaló que lo primero que hacen los hackers cuando consiguen una contraseña es intentar entrar en todos los sitios posibles.

Esto incluye cuentas bancarias, almacenamiento en la nube, redes sociales y más.

Pero si bien los deepfakes han elevado el listón para los estafadores en Internet, los métodos para rastrearlos no han cambiado.

«El proceso no cambia. La IA es solo el contenido… pero las migas de pan que dejan los delincuentes son siempre las mismas», dijo Ikoev.

El seguimiento a los estafadores puede estar bien establecido, pero no lo está un camino claro para que las víctimas recuperen el dinero perdido.

Las estafas financieras de deepfakes pueden oscilar entre USD 243,000 y USD 35 millones, según un análisis.

Un ejemplo fue una estafa con criptomonedas que utilizaba una imagen falsificada de Elon Musk y que, al parecer, les costó a los consumidores estadounidenses unos 2 millones de dólares en seis meses.

Quizás lo más preocupante es que cualquiera puede crearlos. El Sr. Ikoev explicó que todo lo que alguien necesita para crear un deepfake en su teléfono inteligente es una tarjeta gráfica y ver algunos tutoriales web.

«Y ya está», dijo.

Un mundo de posibilidades

El momento de las próximas elecciones presidenciales de EE.UU. en 2024 es precario, dado el aumento de material falso.

Roberts dijo que los estadounidenses deberían esperar unas elecciones repletas de estafadores con un arsenal de deepfakes.

El Departamento de Seguridad Nacional de EE.UU. también expresó su preocupación por el uso de la tecnología y afirmó: «La amenaza de las falsificaciones profundas y los medios sintéticos no proviene de la tecnología utilizada para crearlos, sino de la inclinación natural de las personas a creer lo que ven».

Sin embargo, la caja de Pandora ya está abierta.

A principios de este año, surgieron videos de políticos estadounidenses haciendo comentarios sorprendentemente fuera de lugar.

Uno involucró a Hillary Clinton respaldando al candidato presidencial republicano, Ron DeSantis.

Otro mostraba al presidente Joe Biden lanzando comentarios enojados a una persona transgénero.

Según el Sr. Roberts, esto es solo el comienzo.

“Se utilizará en muchas interferencias políticas”, dijo, y agregó que esta tecnología hará que el próximo evento de nivel COVID sea mucho peor para el público.

«No estoy hablando de desinformación como la describe la izquierda liberal. Estoy hablando de mentiras deliberadas para hacer ingeniería social en todo el mundo».


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.