Isaac Asimov popularizó en sus novelas las que, en un mundo de ficción, debían ser las tres leyes de la robótica: uno, un robot nunca debe hacer daño a una persona; dos, un robot debe obedecer a los humanos a menos que sus órdenes contradigan la primera ley; tres, un robot debe preservar su existencia […]
Dirigentes Digital
| 11 abr 2019
Isaac Asimov popularizó en sus novelas las que, en un mundo de ficción, debían ser las tres leyes de la robótica: uno, un robot nunca debe hacer daño a una persona; dos, un robot debe obedecer a los humanos a menos que sus órdenes contradigan la primera ley; tres, un robot debe preservar su existencia a menos que esto contradiga alguna de las dos primeras leyes.
Casi un siglo más tarde, y en un mundo tecnológicamente menos avanzado que el de sus relatos de ciencia-ficción, la Unión Europea ha desarrollado un conjunto de siete normas éticas que deben aplicar las empresas a sus desarrollos de inteligencia artificial.
La Comisión Europea considera que “la inteligencia artificial presenta nuevos desafíos para el futuro del trabajo y plantea cuestiones legales y éticas” a la vez que supone claros beneficios en diversos sectores “como la atención médica, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático y la gestión de riesgos financieros”.
Por esto ha considerado plantear unos estándares éticos realizados por un grupo de expertos en la materia:
Supervisión humana: los sistemas de inteligencia artificial deben permitir sociedades equitativas apoyando la acción humana y los derechos fundamentales, y no disminuir, limitar o desviar la autonomía humana.
Robustez y seguridad: la inteligencia artificial confiable requiere que los algoritmos sean lo suficientemente seguros y lo suficientemente sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial.
Privacidad y control de los datos: los ciudadanos deben tener un control total sobre sus propios datos. Los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos.
Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA.
Diversidad, no discriminación y equidad: los sistemas de AI deben considerar toda la gama de habilidades, habilidades y requisitos humanos, y garantizar la accesibilidad.
Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
Responsabilidad: deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados.