Por Irene Álvarez Sánchez, Spanish Content Marketing & Outreach Specialist en Kape Technologies
Irene Álvarez Sánchez
| 05 jun 2024
La Inteligencia Artificial se creó con el fin de complementar las capacidades del ser humano, no obstante, ya reemplaza muchas de las actividades desarrolladas por una persona. No es ninguna novedad que los procesos desarrollados por máquinas compartan cada vez más similitudes con el cerebro humano. Pero, ¿a dónde nos va a llevar esto?
Nos aproximamos a un futuro dibujado por la falta de claridad en determinados asuntos legales. Se habla de polémicas éticas en cuanto al uso de rasgos y características físicas para suplantar personalidades, como ha ocurrido en el caso de algunas celebridades. Recientemente, Scarlett Johanson ha sido víctima de uno de estos sucesos al rechazar una oferta por cuestiones personales, que le ofreció Openai para ser la voz del asistente de ChatGPT. Sin embargo, la empresa prosiguió a utilizar una voz extremadamente similar a la suya, lo cual llevó a que la actriz contratase asesoría legal para llevar el caso. Según el estudio realizado por ExpressVPN suplantar identidades con IA suscita a importantes preocupaciones éticas, que los marcos legales van a tener que abordar para proteger los derechos individuales.
Las estrellas de cine no son las únicas afectadas por la falta de transparencia en terrenos, todavía, pantanosos; como son en los que se encuentran actualmente la Inteligencia Artificial. Una extensa lista de trabajos podrían ser sustituidos por IA en un futuro, entre ellos, conductores reemplazados por vehículos autónomos, agricultores y obreros por maquinaria inteligente, o incluso trabajos que requieren cualidades más complejas como analistas financieros pueden llegar a ser sustituidos por sistemas capaces de realizar dichas funciones.
La falta de claridad en la automatización de algunos procesos dentro de las empresas es un problema que está siendo cada vez más común en el entorno laboral. Muchas empresas están adoptando sistemas automatizados e impulsados por logaritmos que tienen la capacidad de aprendizaje autónomo (machine learning) a partir de órdenes o sesgos. Aún así, pueden cometerse errores y repercutir en la actividad empresarial, lo cual lleva a replantearse algunas preguntas éticas y legales.
Si la máquina es programada para realizar ciertas funciones, como reclutar candidatos, y contiene sesgos inadvertidos que discriminan a postulantes totalmente válidos; ¿sería responsable la empresa desarrolladora del software o la utilizadora del software? ¿De quién son responsabilidad las decisiones opacas? ¿Se puede culpar únicamente al sistema automatizado?
La implementación de algoritmos en determinados procesos sin una comprensión adecuada y sin mecanismos claros para atribuir responsabilidad puede tener consecuencias legales y reputacionales para las empresas involucradas. Para mitigar estos riesgos, es crucial establecer regulaciones claras, auditorías regulares y una mayor transparencia en el desarrollo y uso de sistemas automatizados.
Para evitar los vacíos de responsabilidad, es esencial adoptar una serie de prácticas y principios que mantengan el equilibrio y la integridad en las decisiones automatizadas.
Por ejemplo, en 2019, Google creó el “Advanced Technology External Advisory Council” (ATEAC), un comité de ética de IA, para mitigar los riesgos asociados con estas tecnologías en el entorno empresarial y asegurar prácticas éticas. Similar a Google, Amazon y JPMorgan Chase también incorporan supervisión humana antes de tomar decisiones importantes, asegurando una revisión adicional de las recomendaciones automatizadas.
Además, empresas como Microsoft e IBM promueven la transparencia mediante la publicación de informes detallados que explican cómo sus sistemas de IA toman decisiones. Esto permite detectar y corregir sesgos en tiempo real, asegurando que las tecnologías se utilicen de manera justa y equitativa.
Por supuesto, la responsabilidad ética juega un papel crucial a la hora de garantizar un futuro sostenible de la mano de la Inteligencia Artificial, y puede suponer una gran ventaja para empresas y trabajadores. Esto dependerá de cómo se fomente el uso de normas y directrices que aseguren la transparencia.
La evolución de la inteligencia artificial presenta desafíos éticos y legales cruciales. A medida que la IA reemplaza actividades humanas y toma decisiones complejas, es vital establecer marcos claros de responsabilidad y transparencia. En algunas ocasiones puede incluso llevar a errores y discriminación, planteando preguntas sobre la responsabilidad de las decisiones. Para mitigar estos riesgos, es esencial implementar auditorías, supervisión humana y mecanismos de transparencia.
No obstante, la IA aprenderá y se adaptará mejor, gestionando situaciones complejas con mayor precisión. Sin embargo, su integración debe estar guiada por principios éticos robustos para asegurar un impacto positivo y equitativo. La transparencia y la regulación adecuada serán fundamentales para maximizar los beneficios de la IA y minimizar sus riesgos.