Se espera que el uso del aprendizaje automático (ML) y la inteligencia artificial (IA) en el sector bancario se dispare en los próximos años, ya que las instituciones financieras se esfuerzan por utilizar los datos y los conocimientos pertinentes para ofrecer experiencias hiperpersonalizadas a los clientes, mejorar la eficiencia operativa y ampliar la oferta de […]
Dirigentes Digital
| 08 ago 2022
Se espera que el uso del aprendizaje automático (ML) y la inteligencia artificial (IA) en el sector bancario se dispare en los próximos años, ya que las instituciones financieras se esfuerzan por utilizar los datos y los conocimientos pertinentes para ofrecer experiencias hiperpersonalizadas a los clientes, mejorar la eficiencia operativa y ampliar la oferta de productos y servicios.
Aplicar el ML y la IA en la experiencia del cliente de la banca proporciona información relevante y contextual para mejorar el bienestar financiero general de los clientes, y permiten ofrecer rápidamente experiencias digitales personalizadas, convenientes y coordinadas a los clientes en el canal de su preferencia. Además, impulsan la eficiencia y la productividad en los canales asistidos- conduciendo a una mayor satisfacción-, detectan y mitigan el fraude de forma proactiva, y garantizan el cumplimiento de la normativa.
Ante estos beneficios, es tentador suponer que las máquinas y los algoritmos inteligentes están libres de los defectos humanos, como el error y el sesgo. La verdad, sin embargo, es que los humanos pueden inyectar inadvertidamente sus propios sesgos, tanto conscientes como inconscientes, en los algoritmos que impulsan el aprendizaje y la toma de decisiones de la IA/ML. Como resultado, estas máquinas pueden discriminar a algunos clientes al decidir la aprobación de hipotecas y otros grandes préstamos basándose en datos de entrenamiento erróneos. Los complejos modelos de IA/ML pueden crear un efecto de "caja negra" que impide la transparencia y la rendición de cuentas y hace que el sesgo en estas máquinas inteligentes sea difícil, o incluso imposible de detectar. No es de extrañar que los reguladores gubernamentales hayan empezado a tomar nota, pues instan a la protección de los consumidores y usuarios frente a situaciones de vulnerabilidad social y económica.
Tanto por razones competitivas como regulatorias, los bancos simplemente no pueden permitirse implementar algoritmos de IA/ML que discriminen a los clientes basándose en prejuicios cognitivos, como los ingresos, la religión, el origen étnico o el lugar donde viven.
La sociedad es hoy más multicultural que nunca, y las instituciones financieras deberían aprovecharlo para crear una plantilla diversa e implementar estrategias no solo para minimizar, si no eliminar, el sesgo en sus modelos de IA/ML. Además, pueden crear un equipo multidisciplinar para las iniciativas de IA que esté formado no sólo por desarrolladores y gestores de negocio, sino también por profesionales de RRHH y jurídicos. Tener un equipo diverso es una salvaguarda contra los prejuicios generados por una fuerza de trabajo homogénea.
Las empresas financieras tienen la posibilidad de construir conjuntos de datos diversos y aprovechar la información no estructurada de fuentes internas y externas para forjar un camino hacia la inclusividad. De esta forma, pueden hacer comprobaciones constantes para detectar datos sesgados o desviados y supervisar periódicamente los modelos de IA/ML. Además, pueden analizar los datos de entrenamiento y de prueba para determinar si las características y/o atributos protegidos están subrepresentados y volver a entrenar los modelos cuando se detecten problemas.
Implementar la IA al desarrollo del trabajo de los empleados del banco hará no solo de esta un "ayudante cotidiano", sino también servirá a más clientes y romperá las barreras de comunicación tradicionales a escala. Esto permitirá a los propios miembros del equipo promover la inclusión y hacer que cada cliente se sienta escuchado y respetado.
El sesgo en los algoritmos de IA puede ser difícil de detectar, y a menudo sólo se hace visible cuando el daño ya está hecho. A menos que los bancos adopten políticas y procesos integrales para reducir la posibilidad de sesgo de IA, corren el riesgo de discriminar a los clientes. La capacidad de un banco para prevenir y eliminar el sesgo en sus modelos de IA/ML puede determinar en gran medida el éxito que tendrá como organización y en el servicio y fidelización de los clientes.