El imparable avance de la inteligencia artificial en los últimos años ha redefinido la forma en que interactuamos con la tecnología. Sin embargo, este crecimiento también ha alimentado el surgimiento de un nuevo tipo de amenaza: el ciberdelito impulsado por IA.
Tanto es así, que INTERPOL, en su Informe sobre el uso de la IA en el ciberdelito (2022), advirtió sobre el creciente uso de esta tecnología en actividades delictivas, mientras que en su Estudio sobre el costo del ciberdelito (2023), la empresa de investigación Cybersecurity Ventures especializada en ciberseguridad estimó que aproximadamente un 10% de los delitos cibernéticos se cometían a través del uso de IA, prediciendo para 2025 que el costo global del ciberdelito alcanzará los 10.5 billones de dólares.
Pues bien, en medio del vertiginoso avance tecnológico que estamos viviendo, Hong Kong se encuentra en el centro de atención tras un impactante caso de fraude con tecnología deepfake. En esta ocasión, la suma de más de 25 millones de dólares fue transferida a un director financiero que resultó ser falso, desatando la alarma sobre la creciente sofisticación de los ciberdelincuentes.
El empleado de la multinacional víctima del fraude recibió un correo electrónico supuestamente proveniente del director financiero de la empresa, en el que se solicitaba la realización de una transferencia de fondos, señalando que mantendrían una videoconferencia para tratar el asunto.
De esta forma, mediante recreaciones deepfake del aspecto y voz del director financiero y otros miembros del personal, el empleado participó en videoconferencias, correos electrónicos, mensajes instantáneos y llamadas telefónicas, siendo engañado para llevar a cabo quince transacciones financieras a cinco cuentas bancarias, acumulando así más de 25 millones de dólares. La estafa fue descubierta cuando el empleado consultó la situación con la oficina central, siendo este el momento en el que se descubre el fraude, notificándose a las autoridades.
Lo preocupante de este escenario radica en la capacidad de generar vídeos realistas de personas a partir de grabaciones públicas disponibles en línea, suplantando la identidad de las mismas. Además, el hecho de que el empleado fuera manipulado a través de una variedad de canales de comunicación subraya como característica de esta tecnología su versatilidad a la hora de perpetrar actos delictivos. El potencial daño de la IA reside en su capacidad para crear una falsa sensación de autenticidad y confianza en la información y las personas con las que interactuamos, pudiendo ser la detección de este tipo de fraude extremadamente difícil.
Por todo ello, es importante llevar un control sobre las publicaciones de nuestras imágenes y vídeos en general, y en redes sociales en particular. Más teniendo en cuenta a menores de edad, dada su especial susceptibilidad y vulnerabilidad y el uso no consentido que se puede hacer de nuestras imágenes y vídeos en herramientas basadas en IA.