DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Miércoles, 24 de abril de 2024
D
D

Opinión

La inteligencia artificial en la banca: Eliminación de sesgos en la toma de decisiones

Se espera que el uso del aprendizaje automático (ML) y la inteligencia artificial (IA) en el sector bancario se dispare en los próximos años, ya que las instituciones financieras se esfuerzan por utilizar los datos y los conocimientos pertinentes para ofrecer experiencias hiperpersonalizadas a los clientes, mejorar la eficiencia operativa y ampliar la oferta de […]

Dirigentes Digital

08 ago 2022

Se espera que el uso del aprendizaje automático (ML) y la inteligencia artificial (IA) en el sector bancario se dispare en los próximos años, ya que las instituciones financieras se esfuerzan por utilizar los datos y los conocimientos pertinentes para ofrecer experiencias hiperpersonalizadas a los clientes, mejorar la eficiencia operativa y ampliar la oferta de productos y servicios.

Aplicar el ML y la IA en la experiencia del cliente de la banca proporciona información relevante y contextual para mejorar el bienestar financiero general de los clientes, y permiten ofrecer rápidamente experiencias digitales personalizadas, convenientes y coordinadas a los clientes en el canal de su preferencia. Además, impulsan la eficiencia y la productividad en los canales asistidos- conduciendo a una mayor satisfacción-, detectan y mitigan el fraude de forma proactiva, y garantizan el cumplimiento de la normativa.

Ante estos beneficios, es tentador suponer que las máquinas y los algoritmos inteligentes están libres de los defectos humanos, como el error y el sesgo. La verdad, sin embargo, es que los humanos pueden inyectar inadvertidamente sus propios sesgos, tanto conscientes como inconscientes, en los algoritmos que impulsan el aprendizaje y la toma de decisiones de la IA/ML. Como resultado, estas máquinas pueden discriminar a algunos clientes al decidir la aprobación de hipotecas y otros grandes préstamos basándose en datos de entrenamiento erróneos. Los complejos modelos de IA/ML pueden crear un efecto de "caja negra" que impide la transparencia y la rendición de cuentas y hace que el sesgo en estas máquinas inteligentes sea difícil, o incluso imposible de detectar. No es de extrañar que los reguladores gubernamentales hayan empezado a tomar nota, pues instan a la protección de los consumidores y usuarios frente a situaciones de vulnerabilidad social y económica.

Tanto por razones competitivas como regulatorias, los bancos simplemente no pueden permitirse implementar algoritmos de IA/ML que discriminen a los clientes basándose en prejuicios cognitivos, como los ingresos, la religión, el origen étnico o el lugar donde viven.

La sociedad es hoy más multicultural que nunca, y las instituciones financieras deberían aprovecharlo para crear una plantilla diversa e implementar estrategias no solo para minimizar, si no eliminar, el sesgo en sus modelos de IA/ML. Además, pueden crear un equipo multidisciplinar para las iniciativas de IA que esté formado no sólo por desarrolladores y gestores de negocio, sino también por profesionales de RRHH y jurídicos. Tener un equipo diverso es una salvaguarda contra los prejuicios generados por una fuerza de trabajo homogénea.

Las empresas financieras tienen la posibilidad de construir conjuntos de datos diversos y aprovechar la información no estructurada de fuentes internas y externas para forjar un camino hacia la inclusividad. De esta forma, pueden hacer comprobaciones constantes para detectar datos sesgados o desviados y supervisar periódicamente los modelos de IA/ML. Además, pueden analizar los datos de entrenamiento y de prueba para determinar si las características y/o atributos protegidos están subrepresentados y volver a entrenar los modelos cuando se detecten problemas.

Implementar la IA al desarrollo del trabajo de los empleados del banco hará no solo de esta un "ayudante cotidiano", sino también servirá a más clientes y romperá las barreras de comunicación tradicionales a escala. Esto permitirá a los propios miembros del equipo promover la inclusión y hacer que cada cliente se sienta escuchado y respetado.

El sesgo en los algoritmos de IA puede ser difícil de detectar, y a menudo sólo se hace visible cuando el daño ya está hecho. A menos que los bancos adopten políticas y procesos integrales para reducir la posibilidad de sesgo de IA, corren el riesgo de discriminar a los clientes. La capacidad de un banco para prevenir y eliminar el sesgo en sus modelos de IA/ML puede determinar en gran medida el éxito que tendrá como organización y en el servicio y fidelización de los clientes.

Artículos relacionados

Opinión

MetaWorldCongress: marcando el camino en la era de la innovación tecnológica

Por Davo Ruiz, CEO de Meta WorldCongress
Opinión

Formarse en comunicación. Una tarea pendiente entre altos directivos

Por Ignacio Aguado, co-fundador y CEO de Jastag. Ex-vicepresidente de la Comunidad de Madrid
Opinión

El espíritu de la oficina

Por Jesús Alcoba, director creativo en La Salle Campus Madrid
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


Villamor: “Podríamos ver un periodo de estanflación, pero sin una recesión grave”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po



© Piles Cincuenta S.L 2024 Todos los derechos reservados