DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Miércoles, 11 de diciembre de 2024
Últimas noticias
D
D

Tecnología

La UE propone 7 normas éticas para el desarrollo de inteligencia artificial

Isaac Asimov popularizó en sus novelas las que, en un mundo de ficción, debían ser las tres leyes de la robótica: uno, un robot nunca debe hacer daño a una persona; dos, un robot debe obedecer a los humanos a menos que sus órdenes contradigan la primera ley; tres, un robot debe preservar su existencia […]

Dirigentes Digital

11 abr 2019

Isaac Asimov popularizó en sus novelas las que, en un mundo de ficción, debían ser las tres leyes de la robótica: uno, un robot nunca debe hacer daño a una persona; dos, un robot debe obedecer a los humanos a menos que sus órdenes contradigan la primera ley; tres, un robot debe preservar su existencia a menos que esto contradiga alguna de las dos primeras leyes.

Casi un siglo más tarde, y en un mundo tecnológicamente menos avanzado que el de sus relatos de ciencia-ficción, la Unión Europea ha desarrollado un conjunto de siete normas éticas que deben aplicar las empresas a sus desarrollos de inteligencia artificial.

La Comisión Europea considera que “la inteligencia artificial presenta nuevos desafíos para el futuro del trabajo y plantea cuestiones legales y éticas” a la vez que supone claros beneficios en diversos sectores “como la atención médica, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático y la gestión de riesgos financieros”.

Por esto ha considerado plantear unos estándares éticos realizados por un grupo de expertos en la materia:

Supervisión humana: los sistemas de inteligencia artificial deben permitir sociedades equitativas apoyando la acción humana y los derechos fundamentales, y no disminuir, limitar o desviar la autonomía humana.

Robustez y seguridad: la inteligencia artificial confiable requiere que los algoritmos sean lo suficientemente seguros y lo suficientemente sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial.

Privacidad y control de los datos: los ciudadanos deben tener un control total sobre sus propios datos. Los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos.

Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA.

Diversidad, no discriminación y equidad: los sistemas de AI deben considerar toda la gama de habilidades, habilidades y requisitos humanos, y garantizar la accesibilidad.

Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.

Responsabilidad: deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados.

Artículos relacionados

Tecnología

Importancia de la seguridad en las comunicaciones digitales empresariales

Una filtración de datos puede costar más que dinero, puede destruir la confianza
Tecnología

Cómo impacta la High Performance Computing en el mundo de las finanzas: una revolución sin igual para los bancos y sus clientes

El uso de la HPC en la nube ya presenta enormes ventajas para las entidades bancarias que se han decidido a apostar por el futuro
Tecnología

La revolución de los pagos y cobros entre empresas

Se estima que el tamaño del mercado global de pago B2B crecerá de 1,5 billones de dólares en 2023 a 2,4 billones en 2031
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


José Manuel Marín: “no tendría renta fija americana ni de broma”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po


Lo + leído

© MBRAND CONSULTING, SL 2024 Todos los derechos reservados