jueves, 19 septiembre 2019
ZONA PREMIUM
Tecnología

La ética aplicada a la inteligencia artificial, la clave en la confianza de los usuarios

Un estudio revela la importancia para los usuarios de la transparencia en sus dispositivos que emplean IA

07 de julio de 2019. 17:15h Nacho Bosque
  • La ética aplicada a la inteligencia artificial, la clave en la confianza de los usuarios

En una sociedad en la que la inteligencia artificial (IA) gana peso día a día, definir los estándares éticos básicos. La confianza de los usuarios está en juego. Así se realizó un nuevo estudio del Instituto de Investigación de Capgemini. Los usuarios, empleados y la ciudadanía en general vigilan el avance de las empresas para aprovechar el potencial de la IA y se trata de un premiar o castigar sus comportamientos. Los encuestados señalan que se muestran más fieles, que se compran más y que se defiende la marca se perciben las interacciones mediante las funciones de IA con las empresas son éticas.

Para la Realización del estudio, bajo el título ¿Por qué hacer frente a cuestiones éticas en la IA beneficiaria de las organizaciones , se trata de 1.580 Directivos de Grandes Empresas en Estados Unidos Países ya Más de 4.400 Consumidores en Seis Países. Estas son las principales conclusiones:

Las empresas que utilicen la IA de la forma ética se verán recompensadas por una respuesta más favorables de los usuarios: El 62% de los usuarios confiarán más en una empresa que tiene un uso ético de la IA para interactuar con ellos; El 61% compartirá las experiencias positivas con la compañía entre familiares y amigos; el 59% sería más fiel a la empresa; y el 55% está compuesto por más productos, y se darán mejores calificaciones y opiniones positivas en las redes sociales. Por el contrario, si las interacciones de los usuarios con la IA suscitan inquietudes éticas, se pone en riesgo la reputación como los resultados de los negocios de la empresa: el 41% de los individuos que se presentan una reclamación, el 36% exigiría una Explicación y el 34% de la relación con la empresa.

Las empresas han experimentado problemas éticos relacionados con los sistemas de IA: Dirigentes de nueve de cada diez empresas tienen constantes de casos de uso ético cuestionable de la IA en los 2 o 3 últimos años ; por ejemplo, en referencia a la recopilación de datos personales de los pacientes sin el consentimiento, en el sector sanitario, la dependencia de las decisiones de forma automática y sintaxis con el cliente, en la banca y seguros. Entre los motivos que originan estas situaciones, los dirigentes apuntan a la presión para implantar con urgencia la IA, la falta de consideración de la ética durante el desarrollo y el diseño de los sistemas de IA, o la falta de recursos para los sistemas éticos de IA específicos (equipo, presupuesto, tecnología...).

Las organizaciones deben priorizar una estrategia de ética en los sistemas de IA: para hacer frente a la inquietud de esta tecnología suscita entre los usuarios y obtener los beneficios en los términos de confianza que los géneros hacen un uso ético de ella, las empresas tienen que focalizarse en que todos los sistemas o procesos se vean comprometidos. En su investigación, Capgemini recomienda una aproximación triple para construir una estrategia de ética en la que abrace a todos los niveles:

1 - De cara a la alta dirección ya que personas con responsabilidad en asuntos éticos: Establecer fundamentos sólidos a través de una estrategia específica y un código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas y garantizar la asunción de responsabilidades; y construir equipos diversos que inculquen y aseguren la sensibilidad hacia el amplio espectro de las cuestiones éticas.

2 - Asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; Capacitar a los usuarios más herramientas de control y reclamación; Comunicar de forma proactiva, internamente y externamente, casos cuestionables en torno a la IA para construir confianza.

3 - De cara a los responsables de TI, AI y analítica de datos y sus equipos: Buscar la manera de los sistemas de AI ser más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer una gestión correcta de los datos y reducir los posibles sesgos en ellos; hacer un seguimiento continuo de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA.

Por su parte, Luciano Floridi , director de Digital Ethics Labs, del Oxford Internet Institute, explica: “La forma básica de ganar confianza, especialmente en las interacciones con la IA, puede resumirse en las palabras: transparencia, responsabilidad y capacitación. Transparencia, para que las personas puedan ver qué haces; Responsabilidad, porque asume la responsabilidad de lo que haces; "Capacitación, porque proporcionamos las herramientas para que el consumidor o el empleado comunique lo que no es correcto o adecuado [empoderamiento]".