domingo, 16 junio 2019
ZONA PREMIUM
Tecnología

La UE propone 7 normas éticas para el desarrollo de inteligencia artificial

La Comisión Europea delimita un marco moral para los programas de IA

11 de abril de 2019. 17:16h Nacho Bosque
  • Image

Isaac Asimov popularizó en sus novelas las que, en un mundo de ficción, debían ser las tres leyes de la robótica: uno, un robot nunca debe hacer daño a una persona; dos, un robot debe obedecer a los humanos a menos que sus órdenes contradigan la primera ley; tres, un robot debe preservar su existencia a menos que esto contradiga alguna de las dos primeras leyes.

Casi un siglo más tarde, y en un mundo tecnológicamente menos avanzado que el de sus relatos de ciencia-ficción, la Unión Europea ha desarrollado un conjunto de siete normas éticas que deben aplicar las empresas a sus desarrollos de inteligencia artificial.

La Comisión Europea considera que “la inteligencia artificial presenta nuevos desafíos para el futuro del trabajo y plantea cuestiones legales y éticas” a la vez que supone claros beneficios en diversos sectores “como la atención médica, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático y la gestión de riesgos financieros”.

Por esto ha considerado plantear unos estándares éticos realizados por un grupo de expertos en la materia:

Supervisión humana: los sistemas de inteligencia artificial deben permitir sociedades equitativas apoyando la acción humana y los derechos fundamentales, y no disminuir, limitar o desviar la autonomía humana.

Robustez y seguridad: la inteligencia artificial confiable requiere que los algoritmos sean lo suficientemente seguros y lo suficientemente sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial.

Privacidad y control de los datos: los ciudadanos deben tener un control total sobre sus propios datos. Los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos.

Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA.

Diversidad, no discriminación y equidad: los sistemas de AI deben considerar toda la gama de habilidades, habilidades y requisitos humanos, y garantizar la accesibilidad.

Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.

Responsabilidad: deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados.