Accesos bancarios deficientes ante fraudes impulsados por IA

0
160
  • El 51% de las organizaciones perdió entre 5 y 25 millones de dólares en total por amenazas basadas en IA en 2023

 

RedFinanciera          

En el marco del Día Mundial de la Contraseña que se celebra el próximo 2 de mayo, BioCatch alerta que la era de la inteligencia artificial (IA) demanda nuevas directrices para la autenticación. Si bien, la IA es considerada como un fenómeno imparable que está destinado a cambiar la historia de la humanidad, también puede ser fácilmente utilizada por los delincuentes para cometer fraudes.

De acuerdo con el informe “Encuesta 2024 sobre IA, fraude y delitos financieros“  realizado por BioCatch, el 69% de los encuestados afirma que los delincuentes están más avanzados en el uso de la IA para cometer actos ilícitos que los bancos en el uso de la IA para luchar contra la delincuencia financiera.  El 51% de las organizaciones perdió entre 5 y 25 millones de dólares en total por amenazas basadas en IA en 2023.

Josué Martínez, Asesor Global de BioCatch Latam, destaca que la inteligencia artificial se puede utilizar para crear videos deepfake, elaborar mensajes más realistas para utilizarlos en ataques de ingeniería social, clonar voces para aprovechar los sistemas de verificación de voz y más. Lo anterior es atribuible a que, en los dos últimos años, herramientas como ChatGPT y DALL-E de OpenAI, Gemini de Google (antes Bard), Copilot de Microsoft y otros programas de IA generativa,  han puesto algunas de estas capacidades al alcance de todos.

De hecho, el 91% de las instituciones de servicios financieros o bancarios se están replanteando el uso de la verificación por voz dados los riesgos de clonación de voz con IA, según dicha encuesta. Si bien, alguna vez se consideró una respuesta vanguardista y prometedora a amenazas complejas, la verificación de voz ya no será adecuada para que las instituciones financieras protejan a sus clientes.

A decir de Josué Martínez, “la inteligencia artificial puede potenciar todas las estafas del planeta. La IA nos ofrece estafas sin fronteras y requerirá que las instituciones financieras adopten nuevas estrategias y tecnologías para proteger a sus clientes. La era de la IA demanda nuevas directrices para la autenticación. Nuestros clientes han demostrado que las señales de intención de comportamiento son esos nuevos sentidos que permiten a las instituciones financieras detectar deepfakes y clones de voz en tiempo real, para mantener seguro el dinero que las personas han ganado con tanto esfuerzo”.

Aunque la IA está transformando los negocios en América Latina, los desafíos para su implementación persisten. Falta de talento especializado (20.60%), preocupaciones sobre costos de implementación y mantenimiento (11.91%), falta de conocimiento sobre los beneficios potenciales de la IA (10.92%), resistencia al cambio y ciberseguridad (10.92%), según el estudio “La Inteligencia Artificial en América Latina 2023”. Además, una preocupación creciente que ha surgido es la ética relacionada con la IA y su adopción, centrada en cuestiones de transparencia, privacidad, seguridad y responsabilidad.

“Los estafadores de hoy en día son organizados y astutos”, opina el CEO de BioCatch, Gadi Mazor. “Colaboran y comparten información al instante. Los que luchan contra el fraude (incluidos los proveedores de soluciones tecnológicas como nosotros, junto con los bancos, los reguladores y las fuerzas del orden) deben hacer lo mismo si queremos revertir las crecientes cifras de fraude en todo el mundo”.

El informe “Encuesta 2024 sobre IA, fraude y delitos financieros“   resalta que, aunque la mayoría de las instituciones financieras ya están utilizando la IA para la detección de delitos financieros (74%) y la detección de fraudes (73%), todos los encuestados esperan que tanto los delitos financieros como la actividad fraudulenta aumenten en 2024.

La inteligencia biométrica conductual hace frente a la IA maliciosa

Debido a lo anterior se necesitará utilizar una combinación estratégica de métodos de autenticación para minimizar los fraudes, al mismo tiempo que las instituciones financieras deberán establecer estrategias internas y externas de concientización sobre los riesgos de la IA.  “Al emplear inteligencia biométrica del comportamiento y educar a los clientes sobre las estafas o riesgos impulsados por la IA, las instituciones financieras pueden garantizar que su organización y sus clientes estén mejor protegidos en el futuro”, dijo Josué Martínez.

Los bancos y las instituciones financieras deberán compartir información, colaborar con las autoridades reguladoras e implementar tecnologías emergentes para combatir eficazmente los ataques en 2024 y más allá. El empleo de inteligencia biométrica conductual permitirá a los bancos aprovechar el único elemento de la identidad digital que es verdaderamente humano y casi imposible de replicar, brindando así una mejor protección a sus clientes.

A decir de Josué Martínez, el comportamiento es el único elemento de las identidades digitales que es exclusivamente humano, desde las idiosincrasias de los clientes hasta sus hábitos digitales. “Prestar mucha atención al comportamiento del cliente y a la intención detrás de la biometría, el dispositivo, la ubicación geográfica y otras señales creadas por máquinas puede garantizar que las instituciones financieras conozcan realmente a sus clientes”, explicó.

Al aplicar métodos como la telemetría del fraude, la secuenciación continua del comportamiento y la inteligencia predictiva, las instituciones financieras y los bancos líderes pueden mantener a los clientes a salvo del fraude digital y generar una confianza duradera. Para que las instituciones financieras y los bancos se adapten y aborden adecuadamente los obstáculos que presentan los delitos y el fraude financieros modernos, utilizar y compartir inteligencia biométrica del comportamiento será la clave para superar a los delincuentes y proteger a los clientes.