Se estima que la inversión mundial en tecnologías relacionadas con la IA durante este año superará los 500.000 millones de dólares, con sectores concretos, como el de los servicios financieros, situándola como una prioridad en sus gastos. Por eso, es el momento de debatir sobre los aspectos éticos de una tecnología que ha demostrado ya […]
Dirigentes Digital
| 12 jul 2023
Se estima que la inversión mundial en tecnologías relacionadas con la IA durante este año superará los 500.000 millones de dólares, con sectores concretos, como el de los servicios financieros, situándola como una prioridad en sus gastos. Por eso, es el momento de debatir sobre los aspectos éticos de una tecnología que ha demostrado ya ser revolucionaria, no sólo en el ámbito profesional sino también en el personal.
De hecho, los planes de la UE lanzados desde abril de 2021 con el objetivo de colocar al Viejo Continente a la vanguardia de esta tecnología tienen como elemento clave el estudio de las implicaciones éticas y humanas de la Inteligencia Artificial. A través de los programas Horizon Europe y Digital Europe, la UE ha puesto en el mercado mil millones de euros (que movilizarán 20.000 millones de euros anuales adicionales a lo largo de los próximos diez años) para asegurarse de que las innovaciones de laboratorio se convierten en realidad en el mercado.
El valor de la IA es incalculable y se encuentra fuera de toda duda. Sin embargo, el uso indiscriminado de esta tecnología ya ha causado varios conflictos cuando se ha utilizado de forma incorrecta, sobre todo, en lo que se refiere a la conexión entre identidades de género o etnia. En el caso concreto de los servicios financieros, se ha denunciado en varias ocasiones sesgo contra las mujeres en procesos de selección y contra ciertos grupos de población a la hora de tomar decisiones relacionadas con la concesión de créditos.
Por ello, es esencial la responsabilidad de las empresas que desarrollan tecnologías basadas en la toma de decisiones: deben ser capaces de ayudar a los clientes sin caer en la discriminación, con total transparencia. Esto obliga a incorporar la ética en los desarrollos de algoritmos desde el inicio. Y los equipos de experiencia de usuario deben analizar y comprobar que se siguen cumpliendo a lo largo de todo el proceso.
Si volvemos a nuestro caso concreto, Europa cuenta con un plan muy ambicioso, fundamentado en el Reglamento sobre Inteligencia Artificial, que busca clasificar esta tecnología como de alto riesgo y que pretende comprobar cómo los diferentes enfoques resuelven problemas de negocio reales. Los sistemas que se utilizan en las entidades financieras están afortunadamente bajo la lupa y deberán cumplir con esta norma antes de que termine 2024.
Para ello, el sector debería contar con un desarrollo de modelos muy bien definidos y con estándares de IA responsables bien establecidos. En EEUU, por ejemplo, tan sólo un tercio de las entidades considera actualmente como fundamental en su estrategia de negocio el hecho de contar con tecnologías IA responsables. El resto cree que es algo que será una prioridad futura (para uno de cada cuatro, no lo será hasta dentro de tres años).
De la misma manera que la legislación europea sobre protección de datos se convirtió en un estándar mundial hace unos años, el Reglamento sobre IA de la UE podría llegar a determinar los efectos positivos que la tecnología tiene sobre las personas, sin importar su lugar de residencia. En este sentido, destaca que muchos países, como Brasil, por ejemplo, están desarrollando regulaciones similares a la europea. Y de la misma manera que el RGPD prevé importantes sanciones a las organizaciones que no lo cumplan, el Reglamento sobre IA propone multas de hasta 30 millones de euros o el 6 % de la facturación global en caso de incumplimiento.
Y, ¿cuál es el verdadero problema para no incluir elementos de ética en el desarrollo de tecnologías basadas en IA? Pues, en muchos casos, simplemente el desconocimiento de la importancia que el sesgo puede suponer en la toma de decisiones. En un estudio llevado a cabo por FICO, los responsables de desarrollo de IA alertan de que tienen problemas para cumplir con la legislación y más de la mitad de estos profesionales advierte de que ni siquiera cuentan con estándares suficientemente definidos por el Consejo de Administración de sus respectivas organizaciones para poder desarrollar una IA ética. Este estudio muestra también que la IA ética o responsable no es una prioridad para los máximos responsables de las empresas que operan en el ámbito financiero.
Los desafíos a los que se enfrenta el sector de la banca en lo que se refiere al desarrollo e innovación en IA son muy grandes, sobre todo a la hora de cumplir con la legislación europea sin perder de vista las normas nacionales. Después de unos años muy difíciles tratando de lidiar con la pandemia, con la recuperación, con los problemas en la cadena de suministro o con las altas tasas de inflación y tipos de interés, es hora de que los bancos centren el foco en desarrollar una IA ética y de confianza para poder ofrecer los mejores servicios a los clientes en el futuro.