DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Viernes, 22 de noviembre de 2024
Últimas noticias
D
D

Tecnología

La crisis ética en el futuro de la IA

Por Irene Álvarez Sánchez, Spanish Content Marketing & Outreach Specialist en Kape Technologies

Irene Álvarez Sánchez

05 jun 2024

La Inteligencia Artificial se creó con el fin de complementar las capacidades del ser humano, no obstante, ya reemplaza muchas de las actividades desarrolladas por una persona. No es ninguna novedad que los procesos desarrollados por máquinas compartan cada vez más similitudes con el cerebro humano. Pero, ¿a dónde nos va a llevar esto?

Nos aproximamos a un futuro dibujado por la falta de claridad en determinados asuntos legales. Se habla de polémicas éticas en cuanto al uso de rasgos y características físicas para suplantar personalidades, como ha ocurrido en el caso de algunas celebridades. Recientemente, Scarlett Johanson ha sido víctima de uno de estos sucesos al rechazar una oferta por cuestiones personales, que le ofreció Openai para ser la voz del asistente de ChatGPT. Sin embargo, la empresa prosiguió a utilizar una voz extremadamente similar a la suya, lo cual llevó a que la actriz contratase asesoría legal para llevar el caso. Según el estudio realizado por ExpressVPN suplantar identidades con IA suscita a importantes preocupaciones éticas, que los marcos legales van a tener que abordar para proteger los derechos individuales.

Las estrellas de cine no son las únicas afectadas por la falta de transparencia en terrenos, todavía, pantanosos; como son en los que se encuentran actualmente la Inteligencia Artificial. Una extensa lista de trabajos podrían ser sustituidos por IA en un futuro, entre ellos, conductores reemplazados por vehículos autónomos, agricultores y obreros por maquinaria inteligente, o incluso trabajos que requieren cualidades más complejas como analistas financieros pueden llegar a ser sustituidos por sistemas capaces de realizar dichas funciones.

¿Cómo la IA está afectando a la integridad empresarial?

La falta de claridad en la automatización de algunos procesos dentro de las empresas es un problema que está siendo cada vez más común en el entorno laboral. Muchas empresas están adoptando sistemas automatizados e impulsados por logaritmos que tienen la capacidad de aprendizaje autónomo (machine learning) a partir de órdenes o sesgos. Aún así, pueden cometerse errores y repercutir en la actividad empresarial, lo cual lleva a replantearse algunas preguntas éticas y legales.

Si la máquina es programada para realizar ciertas funciones, como reclutar candidatos, y contiene sesgos inadvertidos que discriminan a postulantes totalmente válidos; ¿sería responsable la empresa desarrolladora del software o la utilizadora del software? ¿De quién son responsabilidad las decisiones opacas? ¿Se puede culpar únicamente al sistema automatizado?

La implementación de algoritmos en determinados procesos sin una comprensión adecuada y sin mecanismos claros para atribuir responsabilidad puede tener consecuencias legales y reputacionales para las empresas involucradas. Para mitigar estos riesgos, es crucial establecer regulaciones claras, auditorías regulares y una mayor transparencia en el desarrollo y uso de sistemas automatizados.

¿Cómo mantener la integridad empresarial en un mundo impulsado por la innovación?

Para evitar los vacíos de responsabilidad, es esencial adoptar una serie de prácticas y principios que mantengan el equilibrio y la integridad en las decisiones automatizadas.

Por ejemplo, en 2019, Google creó el “Advanced Technology External Advisory Council” (ATEAC), un comité de ética de IA, para mitigar los riesgos asociados con estas tecnologías en el entorno empresarial y asegurar prácticas éticas. Similar a Google, Amazon y JPMorgan Chase también incorporan supervisión humana antes de tomar decisiones importantes, asegurando una revisión adicional de las recomendaciones automatizadas.

Además, empresas como Microsoft e IBM promueven la transparencia mediante la publicación de informes detallados que explican cómo sus sistemas de IA toman decisiones. Esto permite detectar y corregir sesgos en tiempo real, asegurando que las tecnologías se utilicen de manera justa y equitativa.

Cómo la IA podría evolucionar en las siguientes décadas:

Por supuesto, la responsabilidad ética juega un papel crucial a la hora de garantizar un futuro sostenible de la mano de la Inteligencia Artificial, y puede suponer una gran ventaja para empresas y trabajadores. Esto dependerá de cómo se fomente el uso de normas y directrices que aseguren la transparencia.

  1. Adaptación al cambio: Una de las cualidades humanas que se espera que la Inteligencia Artificial posea en un futuro es poder aprender continuamente y descubrir cómo resolver conflictos con nuevos datos adquiridos. Por lo que los futuros sistemas sabrán ajustarse de manera autónoma a entornos dinámicos, tomar decisiones más informadas y gestionar situaciones complejas con mayor eficacia y precisión.
  2. Creatividad Artificial: Otro de los atributos humanos que cada vez es más reconocible en tecnologías implementadas por Inteligencia Artificial es la creatividad. Cada vez será más común en los medios encontrar contenido generado por la IA, e incluso identificar patrones más complejos simulando experimentos.
  3. En la salud: Podría revolucionar el cuidado de la salud con diagnóstico y tratamientos personalizados.
  4. Seguridad y Ética: Se espera que un futuro sea la propia Inteligencia la que se autorregule de forma automática, evitando comportamientos no deseados, e incorporando principios éticos robustos.

La evolución de la inteligencia artificial presenta desafíos éticos y legales cruciales. A medida que la IA reemplaza actividades humanas y toma decisiones complejas, es vital establecer marcos claros de responsabilidad y transparencia. En algunas ocasiones puede incluso llevar a errores y discriminación, planteando preguntas sobre la responsabilidad de las decisiones. Para mitigar estos riesgos, es esencial implementar auditorías, supervisión humana y mecanismos de transparencia.

No obstante, la IA aprenderá y se adaptará mejor, gestionando situaciones complejas con mayor precisión. Sin embargo, su integración debe estar guiada por principios éticos robustos para asegurar un impacto positivo y equitativo. La transparencia y la regulación adecuada serán fundamentales para maximizar los beneficios de la IA y minimizar sus riesgos.

Artículos relacionados

Tecnología

Preocúpate como marca si ChatGPT no sabe que existes, ni ha oído hablar de tus productos y servicios

Por Óscar Peña de San Antonio, chief innovation & digital solutios officer de Atrevia
Tecnología

“La IA y el IoT han redefinido el panorama de la seguridad”

Oliver de la Rica, managing director de Sector Alarm en España, analiza la situación actual de la industria de seguros y alarmas
Tecnología

Más allá del sonido, llega una radio que se ve

RNE acerca la radio a personas con discapacidad auditiva a través de la TDT
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


José Manuel Marín: “no tendría renta fija americana ni de broma”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po


Lo + leído

© MBRAND CONSULTING, SL 2024 Todos los derechos reservados