Tecnología

IA ha incrementando estafas con ‘deepfakes’ y 7 de cada 10 mexicanos no saben qué es esto

Expertos advierten que las deepfakes hoy se pueden crear rápidamente y a bajo costo con software disponible gratuitamente y la capacidad de alquilar potencia de procesamiento a través del cómputo en la nube.

Publicado

en

Se sabe: un martillo puede servir para construir una casa o para lastimar a una persona. Lo mismo ocurre con la mayoría de las tecnologías actuales y la inteligencia artificial no es la excepción. Expertos del sector de la ciberseguridad están alertando sobre el incremento de estafas y ciberataques que son mejoradas o automatizadas con IA. Es el caso de los engaños a través de deepfakes, algo que 7 de cada 10 mexicanos no saben qué es.

Los expertos de la compañía de ciberseguridad Kaspersky han alertado sobre estos engaños donde imágenes y videos son alterados para mostrar información diferente a la original, por ejemplo, para que una persona suplante a otra. Asimismo, se ha dado a conocer la venta de este material falso en la web oscura, con el fin de facilitar fraudes financieros, estafas empresariales, chantaje político, venganza, acoso y pornografía.

El término deepfake surgió por primera vez en 2017 para describir fotos, audios, videos y otras falsificaciones realistas generadas con IA. Al principio fueron inocentes y hasta divertidas, pero a medida que estas falsificaciones continuaron sofisticándose (y lo siguen haciendo), sus peligros potenciales también van en aumento. Ahora incluso se han identificado falsificaciones que usan redacción similar a la de alguna persona conocida por una víctima.

Deepfake es una palabra compuesta por “deep” de “deep learning”, o aprendizaje profundo, y “fake”, que significa falsificación. Esta técnica consiste en un método avanzado de IA que recopila datos sobre expresiones y movimientos físicos que luego se procesan a través de una Red generativa antagónica (GAN) para crear un video ultra falso. Esta táctica, que antes era exclusiva para los estudios cinematográficos de Hollywood, ahora es más accesible, lo que ha inundado el ciberespacio de contenido que puede confundir y hasta defraudar a los usuarios.

Kaspersky alertó que “a pesar de que la propagación de esta amenaza y sus consecuencias pueden afectar la reputación, privacidad, así como las finanzas de instituciones y usuarios, cifras de la compañía revelan que la mayoría de los mexicanos no sabe qué es un deepfake (72%) y tampoco sabría reconocer un contenido de este tipo (62%). Esto hace que las personas sean más susceptibles a los fraudes y estafas impulsados por esta técnica”.

Según la encuesta “La infodemia y su impacto en la vida digital”, hecha por Kaspersky en asociación con CORPA, el 70% de los usuarios latinoamericanos ignora la existencia de los deepfakes. De los encuestados, los peruanos (75%) son los que más la desconocen, seguidos de los mexicanos y chilenos (ambos con 72%), los argentinos (67%), brasileños (66%) y colombianos (63%). Para los expertos en ciberseguridad, este índice de desconocimiento es preocupante porque podría garantizar el éxito de tácticas de ingeniería social y fraude que aplican esta tecnología.

“La técnica de IA aplicada a expresiones fáciles en sí no es maliciosa, ya que permite a la industria del cine, por ejemplo, ofrecer al público experiencias cada vez más asombrosas. Sin embargo, el uso de deepfakes tiende a volverse cada vez más imperceptible y, como pasa con cualquier tecnología innovadora, su proliferación conlleva a riesgos y consecuencias”, advierte Dmitry Bestuzhev, director del Equipo de Investigación y Análisis para América Latina en Kaspersky.

“Los ejemplos más comunes de uso indebido incluyen videos falsos que utilizan el rostro de sus víctimas para atentar contra su integridad o credibilidad, así como la manipulación de imágenes y sonidos para eludir contraseñas biométricas (rostro y voz). A medida que la tecnología se vuelva menos costosa, podemos esperar que surjan nuevos usos ilícitos”, añadió.

Los datos de la compañía de ciberseguridad indican que el 67% de los latinoamericanos no reconoce sabe reconocer cuándo un video ha sido editado digitalmente usando la técnica del deepfake, con los colombianos siendo lo que menos pueden detectar este tipo de videos (72%), seguidos por los brasileños (71%), chilenos (70%), argentinos (68%), mexicanos (62%) y peruanos (57%).

“Estas cifras se tornan aún más preocupante si consideramos que además de videos, frecuentemente compartidos por redes sociales o WhatsApp, también se han reportado casos de fraude en plataformas de búsqueda de trabajo que utilizan esta tecnología para crear perfiles falsos con el objetivo de engañar y extraer información personal de sus víctimas”, alerta la compañía.

Como lo advirtió Forbes México con anterioridad, las deepfakes son un peligroso caldo de cultivo para la desinformación, manipulación de elecciones y de la opinión pública, difusión de teorías de la conspiración y noticias falsas, suplantación de identidad, daño reputacional, debilitamiento de la confianza pública; y su creación ya no es exclusiva de personas con conocimiento técnico para ello, ya que hoy existes softwares disponibles de forma gratuita que crean estas falsificaciones rápidamente.

“El uso de la IA para generar deepfakes está causando preocupación porque los resultados son cada vez más realistas, se crean rápidamente y se hacen a bajo costo con software disponible gratuitamente y la capacidad de alquilar potencia de procesamiento a través del cómputo en la nube. De este modo, incluso los operadores no cualificados podrían descargar las herramientas informáticas necesarias y, utilizando datos públicos, crear contenidos falsificados cada vez más convincentes”, alertó un documento del Congreso de EU, fechado el 17 de abril de este año, consultado por esta revista.

Las autoras del informe del Congreso estadounidense refieren que “la tecnología deepfake se ha popularizado con fines de entretenimiento, por ejemplo, los usuarios de las redes sociales insertan al actor Nicholas Cage en películas en las que no apareció originalmente y un museo que genera una exposición interactiva con el artista Salvador Dalí”.

Aunque también se han utilizado con fines benéficos. Por ejemplo, los investigadores médicos han informado que usan GAN para sintetizar imágenes médicas falsas para entrenar algoritmos de detección de enfermedades raras y minimizar las preocupaciones de privacidad del paciente.

“Sin embargo, las falsificaciones profundas podrían usarse con fines nefastos. Los adversarios estatales o las personas con motivaciones políticas podrían publicar videos falsificados de funcionarios electos u otras figuras públicas haciendo comentarios incendiarios o comportándose de manera inapropiada. Hacerlo podría, a su vez, erosionar la confianza pública, afectar negativamente el discurso público o incluso influir en una elección”, alertan las autoras.

Con información de Forbes

JE

Tendencia

Salir de la versión móvil