Portafolios

0
51
  • Riesgos de la Inteligencia Artificial en el sector financiero
  • Por Alan Ramírez Flores, CEO de Coperva y autor de Liderazgo para todos

RedFinancieraMX

Las tecnologías de inteligencia artificial (IA) son muy prometedoras para la industria de servicios financieros, pero también generan riesgos que deben abordarse con los enfoques de gobernanza adecuados.

Existen cuatro áreas en las que la IA puede ser crucial para labanca:

El primero cubre los usos orientados al cliente que podrían ampliar el acceso al crédito y otros servicios financieros mediante el uso de algoritmos de aprendizaje automático. Esto para evaluar la calidad del crédito o para poner precio a las pólizas de seguro. También para avanzar en la inclusión financiera. Herramientas como los chatbots de IA, por ejemplo, brindan ayuda e incluso asesoramiento financiero a los consumidores, ya que les ahorran tiempo que de otra manera podrían perder mientras esperan hablar con un operador en vivo.

Otra área para el uso de la IA es fortalecer las operaciones de back-office, incluido el desarrollo de modelos avanzados para la optimización de capital, la gestión de riesgos de modelos, las pruebas de estrés y el análisis de impacto en el mercado.

Una tercera área de uso de la IA se refiere a las estrategias comerciales y de inversión.

La cuarta cubre los avances de la IA en el cumplimiento y la mitigación de riesgos por parte de los bancos. Las soluciones de IA ya se utilizan para la detección de fraudes,  optimización de capital y gestión de carteras.

Ahora, para que la IA mejore los resultados empresariales y sociales, sus riesgos, reitero, deben gestionarse de manera responsable.

Al explorar los riesgos potenciales de la IA, se encuentran los relacionados con los datos, la IA y los ataques de aprendizaje automático, las pruebas, la confianza y el cumplimiento. Los marcos de gobernanza sólidos deben centrarse en las definiciones, el inventario, las políticas y normas y los controles. Esos enfoques de gobernanza también deben abordar la posibilidad de que la IA presente problemas de privacidad y resultados potencialmente discriminatorios o injustos si no se implementan con el cuidado adecuado.

Al diseñar sus mecanismos de gobernanza de la IA, las instituciones financieras deben comenzar por identificar los entornos en los que la IA no puede reemplazar a los humanos. En la mayoría de los casos, no es posible entrenar al sistema de IA en todos los escenarios y datos posibles. Entre los obstáculos aparecen la falta de contexto, juicio y limitaciones generales de aprendizaje.

La mala calidad de los datos y el potencial de ataques de aprendizaje automático/IA son otros riesgos que las instituciones financieras deben tener en cuenta.

En los ataques a la privacidad de los datos, un atacante podría inferir información confidencial del conjunto de datos para entrenar sistemas de IA. Existen dos tipos principales de ataques a la privacidad de los datos: los ataques de “inferencia de membresía” y los de “inversión de modelos”.

En un ataque de inferencia de pertenencia, un atacante podría determinar si existe un registro determinado o un conjunto de registros en datos de entrenamiento y determinar si forma parte de los empleados para entrenar el sistema de IA.

En un ataque de inversión de modelo, en tanto,  un atacante podría extraer los datos de entrenamiento usados para entrenar el modelo directamente.

 Otros ataques incluyen el “envenenamiento de datos”, que podría usarse para aumentar la tasa de error en los sistemas de IA / aprendizaje automático y distorsionar los procesos y resultados de aprendizajLa interpretabilidad, o presentar los resultados del sistema de IA en formatos que los humanos puedan entender, y la discriminación, que podría resultar en resultados injustamente sesgados.

Asimismo, los algoritmos podrían producir resultados discriminatorios con su complejidad y opacidad. Otras áreas de los riesgos de la IA incluyen la precisión con la que los humanos pueden interpretar y explicar los procesos y resultados de la IA.

En sí, convendría preveer posibles fallas porque a la par de que la IA puede resultar muy productiva y enriquecer la experiencia de los usuarios, también conlleva costosos errores si se carece de un plan B para subsanar yerros.