La Explosión del Fraude Financiero Impulsado por la IA Generativa Asequible
El fraude financiero se dispara, alimentado por herramientas de IA generativa accesibles y económicas
Si las preocupaciones de los proveedores de biometría e identidad digital sobre el riesgo de fraude y la importancia de la seguridad de los datos parecen exageradas, considere estos datos del Informe del Estado del Fraude Omnicanal 2024 de TransUnion, publicado hoy: desde 2020 hasta 2023, las brechas de datos en los EE. UU. aumentaron en un 157 por ciento, y uno de cada siete cuentas digitales recién creadas se sospecha fraudulentas, dejando expuestos $3.1 mil millones a ataques de fraude de identidad sintética.
Mostrando un salto del 14 por ciento año tras año, el fraude de identidad sintética y las identidades fabricadas o robadas están teniendo impactos importantes en las industrias de retail, viajes y videojuegos, entre otras, dice un comunicado de prensa sobre el informe. La tendencia muestra a los estafadores intentando secuestrar transacciones más temprano en el proceso de registro de cuentas, originación de préstamos y otros procesos de incorporación y registro. «Esta fase temprana del fraude de nuevas cuentas puede representar un cambio de paradigma entre los estafadores», dice Steve Yin, vicepresidente senior y jefe global de soluciones de fraude en TransUnion. «En lugar de usar tácticas tradicionales para acceder y comprometer cuentas existentes, están optando cada vez más por crear nuevas cuentas que puedan controlar por sí mismos.»
«Corte de cerdos» entre los nuevos y evolutivos fraudes financieros
Si alguien duda de la veracidad de un informe de la industria, Interpol quisiera decir algo. La organización policial criminal internacional ha publicado una evaluación sobre el fraude financiero global que muestra cómo la tecnología facilita el crecimiento y la sofisticación del crimen organizado. En un comunicado, Interpol dice que la IA generativa, los modelos de lenguaje grande y las criptomonedas son algunas de las tecnologías que han reducido los obstáculos financieros y técnicos para acceder a herramientas sofisticadas para el fraude.
El Secretario General Jürgen Stock califica el resultado como «una epidemia en el crecimiento del fraude financiero, llevando a individuos, a menudo personas vulnerables, y empresas a ser defraudadas a una escala masiva y global».
«Con el desarrollo de la IA y las criptomonedas», dice Stock, «la situación solo empeorará sin una acción urgente.»
Los tipos dominantes de fraude varían entre continentes. Un esquema nuevo, llamado de manera bastante agresiva fraude de «corte de cerdos», actualmente en aumento en Asia, África y Europa, combina estafas de romance en línea y estafas de inversión con criptomonedas para un proceso criminal que imita el engorde de un cerdo para el sacrificio.
La IA generativa facilita un fraude mejor y más barato
En lo que rápidamente se está convirtiendo en una tendencia común, la tasa de desarrollo tecnológico continúa superando las respuestas defensivas adecuadas. La IA generativa ha alcanzado un punto de inflexión en el que acceder a las herramientas para crear una identificación falsa es tan simple como abrir un generador de imágenes IA y emitir una solicitud. Según un artículo de Tatiana Walk-Morris en Dark Reading, el Centro de Servicios Financieros de Deloitte dice que el fraude de identidad sintética podría llevar a pérdidas de $23 mil millones para 2030.
Ari Jacoby, CEO de la herramienta de detección de fraude impulsada por IA Deduce, dice que la IA generativa «aplastará» las defensas existentes contra las identificaciones falsificadas. «Si quieres usar esos datos que ya existen para casi todos para crear una selfie, eso no es difícil», dice Jacoby. «Hay un enorme grupo de malos, malas personas allí afuera, que ahora están armamentizando este tipo de inteligencia artificial para acelerar el ritmo al que pueden cometer crímenes. Eso es el extremo inferior del espectro.
Imagina lo que está sucediendo en el extremo superior del espectro con el crimen organizado y enormes recursos financieros.»
¿Qué hacer? Usar tecnología para combatir la tecnología es una opción popular: IA y análisis de comportamiento pueden desplegarse para distinguir entre clientes reales y sintéticos. Avances en biometría, verificación de identidad y tecnología de autenticación son útiles. En resumen, existen soluciones, pero importa de dónde provienen.
Grandes nombres reconocen el problema. Google Cloud ha anunciado una asociación con BioCatch para extender los esfuerzos de prevención de fraude a nuevos mercados en expansión, particularmente en el Sudeste Asiático. Según un comunicado, BioCatch y Google Cloud apoyarán a instituciones financieras en la región de APAC, que enfrenta un rápido crecimiento en el cibercrimen financiero y, en palabras de Richard Booth de BioCatch APAC, “tácticas de ingeniería social sofisticadas que han demostrado ser difíciles de contrarrestar en tiempo real con controles de seguridad heredados.”
Un comunicado de Mastercard dice que también tiene un nuevo acuerdo centrado en el fraude, este con la plataforma de pagos Network International, que ofrecerá la plataforma de prevención de fraude impulsada por IA de Mastercard, Brighterion, a más de 60.000 comerciantes en África y el Medio Oriente. Brighterion utiliza algoritmos de aprendizaje automático continuamente actualizados para monitorear transacciones en busca de cumplimiento, para combatir lo que los representantes de la compañía llaman la rápida evolución de las amenazas cibernéticas. Mastercard ofrece biometría de comportamiento a través de su subsidiaria NuData.
Las startups también están agregando biometría de comportamiento para prevenir el fraude, con Darwinium, con sede en San Francisco, uniéndose al mercado esta semana. Darwinium agregó firmas digitales basadas en biometría de comportamiento a su software de confianza en línea. Las firmas de comportamiento se combinan con firmas de dispositivo para lo que Darwinium llama “ADN Digital”.
Flexibilidad y monitoreo en tiempo real ayudan a luchar contra la IA generativa
Un mensaje clave en la discusión sobre cómo proteger a las empresas contra la IA generativa, deepfakes y otros vectores de fraude financiero se centra en la diligencia y la adaptabilidad. Aprendizaje continuo, detección de amenazas en tiempo real y sistemas biométricos asistidos por IA son necesarios para asegurar que la evolución en la prevención coincida con la evolución en el riesgo.
Sin embargo, hay una dura verdad que enfrentar, según Matt Miller, principal de servicios de ciberseguridad en KPMG EE. UU. “Incumbe a las instituciones que están proporcionando esta tecnología no solo entenderlas”, dice, “sino realmente comprender los riesgos asociados con ellas y poder educar sobre el uso adecuado y también poder controlar sus propias plataformas.”
En otras palabras, no importa cuán hábil se vuelva la industria en la defensa, hay una responsabilidad en aquellos que desarrollan tecnología de IA para ayudar a mitigar los riesgos que están creando, algo en lo que los empresarios tecnológicos, lamentablemente, hasta ahora no han sido muy buenos.
Autor: Raul Machado