La tecnología deepfake asumió la culpa de que una banda de fraude organizara un impactante caso de 200 millones de dólares de Hong Kong
La tecnología deepfake (denominada "tecnología deepfake") se basa en la inteligencia artificial para la síntesis de imágenes humanas. A través del aprendizaje profundo de la inteligencia artificial, la tecnología deepfake ha podido lograr un efecto de cambio de rostro altamente restaurado y combinado con. La simulación de voz AI puede lograr un efecto de cambio de rostro y voz de AI altamente restaurado. Hay bandas de estafadores que han utilizado esta tecnología para crear muchas estafas impactantes.
Caso 1: Reunión de personas enmascaradas
La policía de Hong Kong recibió recientemente un extraño fraude por un monto total de 200 millones de dólares de Hong Kong. Lo más escandaloso del incidente es que la empresa. Lo que fue defraudado fue que la IA le dio vía libre al lobo blanco, y tomó una semana transferir 200 millones de yuanes antes de darse cuenta de que algo andaba mal.
Esta no es sólo la estafa de "cambio de cara" más costosa en la historia de Hong Kong, sino también el primer caso de fraude que involucra estafas de "múltiples cambios de cara" con IA.
La persona que realizó la denuncia era un empleado de la sucursal de Hong Kong de una empresa multinacional. Recibió un mensaje del director financiero de la sede británica, informándole que se iba a realizar una transacción confidencial e invitó a varios miembros del personal financiero a una videoconferencia.
El empleado vio que todas las personas en la reunión parecían personas reales, por lo que pensó que no debería haber ningún problema. Como resultado, transfirió la cuenta 15 veces y se depositó un total de 200 millones de dólares de Hong Kong en cinco cuentas bancarias locales. Más tarde, cuando pregunté en la sede, descubrí que me habían engañado.
¿Cómo lo hicieron los estafadores? Utilizaron los videos de YouTube de la empresa y otros materiales públicos para falsificar las imágenes y las imágenes de los altos directivos. de las empresas británicas. Luego use la tecnología Deepfake para crear videos falsos y hacer que otros piensen que hay varias personas participando en la reunión.
De hecho, en esta reunión falsa, solo este empleado era una persona real. Debido a que era un video pregrabado, el jefe estaba principalmente dando órdenes y los empleados no tenían oportunidad de interrumpir, por lo que simplemente preséntate y termina el día. Los comandos posteriores se comunican a través del software. Esto resultó en este impactante caso.
Caso 2: El Sr. Guo y el lobo
La Oficina de Investigación de Delitos Cibernéticos en Telecomunicaciones de la Oficina de Seguridad Pública de la ciudad de Baotou publicó un caso de uso de tecnología inteligente de inteligencia artificial para cometer fraude en telecomunicaciones, Guo Guo. El representante legal de una empresa de tecnología en la ciudad de Fuzhou fue defraudado por 4,3 millones de yuanes en 10 minutos.
Al mediodía del 20 de abril del año pasado, un amigo del Sr. Guo de repente se acercó a él a través de un video de WeChat y le dijo que su amigo estaba pujando en otro lugar y necesitaba un depósito grande. Quería pedir prestada la empresa del Sr. Guo. cuenta para realizar un pago. Cuando el Sr. Guo vio el video, vio que efectivamente era su amigo. Pensó que esto no debería ser un problema, por lo que transfirió 4,3 millones en dos veces sin verificar si el dinero había llegado.
Más tarde, el Sr. Guo llamó a su amigo y descubrió que había sido engañado. ¡Resultó que el estafador usó tecnología inteligente de onomatopeya y cambio de rostro de IA para falsificar la apariencia de su amigo y usar directamente el WeChat de su amigo! Para iniciar un video chat, bajo la doble verificación de apariencia y voz, es realmente difícil que alguien sospeche.
Sin embargo, no importa cuán excelente sea la tecnología, puede revelar sus fallas. La tecnología de IA no es tan poderosa como se imagina. Aún puede evitar ser engañado haciendo lo siguiente:
. 1. No sea demasiado casual al transferir dinero. Las transferencias de público a público deben cumplir con procedimientos estandarizados y las transferencias privadas deben confirmar cuidadosamente la identidad de la otra parte.
2. , observe las expresiones faciales de la otra parte, hable más e identifique cuidadosamente sus voces;
3 Cuando se detecte una anomalía, pídale a la otra parte que se agite los dedos hacia adelante y hacia atrás en la cara o que use los dedos. palmas para bloquear parte de su cara si la cara aparece distorsionada, se utiliza el cambio de cara mediante IA;
4. Comuníquese con la otra parte utilizando otros métodos de contacto y confirme varias veces antes de transferir dinero.