Por Elías Bethencourt Parodi, director comercial de Latinoamérica en PFSTECH, experto en ética y gobernanza de la IA
Elías Bethencourt Parodi
| 08 jul 2024
La Inteligencia Artificial (IA) está generando una de las transformaciones más relevantes de nuestra historia. Para que esta tecnología beneficie a la sociedad, es esencial asegurar una gobernanza ética, manteniendo al ser humano en el centro.
La revolución actual de la inteligencia artificial se compara con las anteriores revoluciones agrícola, de la imprenta, industrial o digital, pero a diferencia de estas, la IA no solo amplía nuestras capacidades, también puede generar nuevas ideas y productos por sí misma. Mientras que una imprenta puede reproducir libros, una IA puede crear una novela completa.
A corto plazo, la competencia no será la automatización de tareas operativas, sino las máquinas inteligentes que dominan habilidades consideradas exclusivamente humanas. Por ejemplo, escritores, músicos y diseñadores están más preocupados que albañiles o conductores de taxis.
El informe del Fondo Monetario Internacional (FMI) de 2024 señala que la inteligencia artificial afectará al 40% de los empleos globales en los próximos años, con un impacto aún mayor en los países desarrollados. La convergencia con tecnologías como neurociencias, computación cuántica e ingeniería genética plantea desafíos sin precedentes.
La IA generativa, con aplicaciones como ChatGPT y Midjourney, ha democratizado el acceso a la tecnología, pero la IA actual se limita a la Inteligencia Artificial Estrecha (ANI), que se especializa en tareas específicas. El futuro de la IA incluye la IA General (AGI), capaz de aprender y adaptarse como un ser humano, y la IA Superinteligente (ASI), superior a la inteligencia humana.
Estos avances ofrecen beneficios significativos en áreas como finanzas, salud y educación, pero también conllevan dilemas éticos. Por ejemplo, la inteligencia artificial a menudo requiere grandes cantidades de datos personales para funcionar eficazmente. Esto plantea preocupaciones sobre cómo se recopilan, almacenan y utilizan, así como sobre el riesgo de violaciones de la privacidad y ciberataques.
Por otro lado, los sistemas de IA pueden perpetuar y amplificar sesgos de género existentes si se entrenan con datos deficientes. Esto puede llevar a decisiones discriminatorias en áreas como el empleo, la justicia penal y el acceso a servicios.
Además, muchas técnicas de inteligencia artificial, especialmente aquellas basadas en aprendizaje profundo, son difíciles de interpretar. La falta de experiencia de los desarrolladores en transparentar cómo se toman las decisiones puede generar desconfianza y dificultar la rendición de cuentas.
Determinar quién es responsable cuando un sistema de IA causa daño es un desafío. Esto incluye responsabilidades legales y éticas tanto para los desarrolladores como para los usuarios de la IA. La toma de decisiones autónomas por parte de la IA puede socavar el control humano en áreas críticas.
La adopción de la IA puede exacerbar las desigualdades existentes al concentrar el poder y los beneficios económicos en manos de unas pocas empresas o individuos, generando una mayor desigualdad socioeconómica. También puede llevar a la pérdida de empleos y la creación de brechas de habilidades.
Por último, la IA puede ser utilizada para manipular el comportamiento humano a través de técnicas como la microsegmentación y la personalización extrema, lo que plantea preocupaciones sobre la autonomía y el consentimiento informado.
Casos como el sesgo en el sistema de reclutamiento de Amazon y los problemas con el sistema COMPAS en Florida, en Estados Unidos, muestran las consecuencias de implementar IA sin suficiente consideración ética. Amazon tuvo que eliminar su sistema de reclutamiento por sesgo machista, y Florida recibió denuncias contra COMPAS por discriminar a personas negras. Estos problemas a menudo surgen de empresas con poca experiencia que se enfocan en encontrar el algoritmo más predictivo, descuidando etapas críticas donde el conocimiento humano es esencial.
En respuesta, organismos internacionales como la UNESCO y la Comisión Europea han desarrollado directrices éticas para la IA. Estas directrices han influido en la legislación, como el AI Act aprobado en 2024, una ley pionera mundial que busca regular la IA, potenciar su desarrollo, pero protegiendo las libertades y los derechos fundamentales de los ciudadanos.
El AI Act no clasifica los algoritmos por su tecnología, sino por el riesgo asociado a su uso, evaluando su impacto potencial en la salud, la seguridad y los derechos fundamentales. Define prácticas prohibidas y categoriza los sistemas de IA en alto riesgo, como los vinculados a la seguridad de infraestructuras o a la concesión de créditos. Estos sistemas deben cumplir con rigurosos requisitos de gestión que podrían resumirse en la necesidad de terminar con las “cajas negras” y asegurar una gobernanza ética.
La experiencia de AIS, ahora integrada por PFSTECH, como consultoría especializada en implementar algoritmos avanzados en el sistema financiero, nos ha proporcionado el conocimiento necesario para aplicar prácticas siguiendo esta gobernanza ética. Nuestro enfoque incluye mitigar sesgos, seleccionar algoritmos transparentes, evitar sobreajustes, validar modelos para todos los grupos poblacionales, implementar vigilancia humana y establecer un proceso de rendición de cuentas. Esto nos ha permitido superar el desafío, logrando modelos de IA explicables y trazables.
En estos momentos, vemos dos premisas claras para el futuro: las empresas competitivas integrarán IA alineada con su estrategia organizacional, y las IA confiables y sostenibles estarán respaldadas por un modelo de gobierno que implemente estándares éticos.
Nos encontramos en una encrucijada histórica donde nuestras decisiones determinarán si la IA beneficia al bien común o representa un riesgo para los derechos fundamentales. El momento de actuar es ahora. ¿Estamos preparados para este desafío?