Entre sus contrapartidas, los avances tecnológicos en materia de inteligencia artificial permiten a los profesionales de la materia darle un uso indebido. Los ciberdelincuentes implementan estas nuevas herramientas para perpetrar delitos con técnicas más sofisticadas en robo de identidades, ciberacoso, o violación de los derechos de la intimidad de las personas. Una de las últimas aplicaciones que estamos viendo, es el uso de los deepfakes en entrevistas para conseguir trabajos en remoto.
Otros casos más conocidos se han basado en el uso de estas creaciones virtuales para llevar a cabo campañas de desinformación con vídeos falsos de políticos. La Europol ya ha señalado en varias ocasiones la necesidad de crear un sistema para su detección y control.
“Parece inverosímil, pero son casos reales”, comenta Hervé Lambert Global Consumer Operations Manager de Panda Security. Los cibercriminales se postulan para ofertas de trabajo en remoto, para hacer todo el proceso de forma online. “Esta gran apuesta por fomentar el trabajo en remoto ha hecho que los hackers encuentren nuevas formas de cometer ciberdelitos. En este caso no es que quieran el trabajo como tal, sino que una vez a través del deepfake han conseguido el puesto, ya están dentro de la empresa. Lo que se traduce en tener la llave de claves empresariales y documentos personales para luego utilizar a su antojo. Normalmente acaba en forma de chantaje para sacar algo de rédito económico de ello”, apunta.
Tipos de ataques con deepfakes
La disponibilidad pública y global de bases de datos que contienen ingentes cantidades de imágenes, vídeos y audios, permiten que sea cada vez más fácil y verosímil la creación de deepfakes, simulaciones virtuales de personas u objetos que parecen totalmente reales, logrados a través de del aprendizaje profundo (Deep learning), un campo específico de la inteligencia artificial.
- A través de imágenes y vídeos (Deepface): creados con inteligencia artificial que imitan objetos reales o caras de persona, pero no es más que una ilusión. En la antigüedad se utilizaba la edición, en la actualidad la tecnología permite a través de redes neuronales generativas antagónicas (GANs), la creación de imágenes falsas que parecen reales.
- A través de audios (Deepvoice): los hackers cogen de fragmentos de audio procedentes de la misma voz, y con ayuda de la inteligencia artificial, son capaces de replicarla, creando una grabación con las palabras que decidan. Con esta técnica ha habido casos de suplantación de identidad de CEOs de grandes empresas.
Su uso puede aplicarse a multitud de situaciones. En especial, se han reportado casos donde el objetivo es destruir o dañar la imagen de una empresa. INCIBE reportaba un caso en el que se publicó en Twitter el vídeo del CEO de una empresa, aparentemente se trababa de su cara, gestualidad y voz, criticando a los consumidores de la marca.
“Hay que implementar estrategias y métodos de protección efectivos, porque el uso de los deepfake puede traducirse en delitos graves como los mencionados, y llegar hasta la manipulación de pruebas en procesos penales y la producción de pornografía no consentida”, explica Hervé Lambert Global Consumer Operations Manager de Panda Security.
A pesar del auge de la seguridad biométrica para proteger y proporcionar mayor robustez a los dispositivos e instalaciones, los hackers han encontrado a través de los deepfakes una nueva forma de eludir esta nueva tecnología que ha dejado atrás métodos más tradicionales como el de contraseñas.
¿Cómo detectar el engaño de un deepfake?
- En el caso de empresas o personas con proyección pública es adecuado llevar a cabo una monitorización diaria de las redes sociales para controlar si se está viralizando cualquier contenido que pueda socavar la reputación de una marca o una persona.
- A continuación, habrá que reparar en cada pequeño detalle. Cuando se trata de imitar a una persona, fijarse en cada uno de los gestos, si hace gestos bruscos o en su postura. Incluso el parpadeo puede darnos pistas de si se trata de una concatenación de miles o millones de imágenes.
- Observar si el brillo cambia de cuadro a cuadro o hay cambios en la tonalidad de la piel.
- Como suele pasar con los mensajes o correos electrónicos sobre estafas, siempre hay erratas. Agudizar el oído y la memoria para reconocer si el tono coincide con el de la persona, e inclusive las palabras que suele repetir o su discurso, preguntarse si es coherente con los valores o imagen que de normal intenta proyectar.
- Si efectivamente se trata de una simulación, habrá que preparar una plan o estrategia de intervención.
Los comentarios están cerrados.