DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Viernes, 13 de diciembre de 2024
Últimas noticias
D
D

hemeroteca

Tres maneras de enseñar ética a los robots

Es difícil imaginar una tecnología tan fascinante y aterradora como el aprendizaje automatizado o machine learning. Los medios de comunicación y los trabajos de investigación dedican cada vez más espacio a su potencial para convertirse en un factor de mejora en los negocios y la sociedad, pero queda en el aire una cuestión que todos […]

Dirigentes Digital

05 dic 2017

Es difícil imaginar una tecnología tan fascinante y aterradora como el aprendizaje automatizado o machine learning. Los medios de comunicación y los trabajos de investigación dedican cada vez más espacio a su potencial para convertirse en un factor de mejora en los negocios y la sociedad, pero queda en el aire una cuestión que todos tenemos en mente: “¿qué ocurre si todo va terriblemente mal?”. Los expertos nos han advertido durante años sobre los efectos inesperados de la inteligencia artificial en la sociedad. Ray Kurzweil predice que en 2029 las máquinas inteligentes serán capaces de superar a los humanos en inteligencia. Stephen Hawking debate que “una vez que los humanos desarrollen la inteligencia artificial, tomará conciencia propia y se rediseñará a sí misma en un ratio de crecimiento exponencial”. Elon Musk advierte de que la inteligencia artificial puede constituir un “riesgo fundamental para la existencia de la civilización humana”. Las visiones alarmistas sobre el increíble potencial de la inteligencia artificial abundan en la prensa. Enseñarle ética a las máquinas es difícil, ya que los humanos no podemos medir la moralidad de nuestras acciones de forma métrica, que sería lo fácil para que un ordenador lo procesase. De hecho, es difícil dar una respuesta consensuada a un dilema moral entre los humanos. Basados en las experiencias de los expertos en machine learning, pueden trazarse tres maneras de empezar a diseñar máquinas más éticas. 1. Definir un comportamiento ético Los especialistas en inteligencia artificial y en ética necesitan formular valores éticos de manera cuantificable. En otras palabras, necesitan dotar a las máquinas de respuestas y reglas para cualquier potencial dilema que pudiera surgir. Esto requiere primero de un consenso en la respuesta más adecuada según la situación; una tarea ardua, pero no imposible. Por ejemplo la Comisión Ética sobre Conducción Automática y Conectada alemana a recomendado programar específicamente valores éticos en la conducción automatizada para priorizar la protección de la vida humana sobre todo lo demás. En el supuesto de un accidente inevitable, el coche “debe tener prohibido calcular una compensación entre las víctimas”. En otras palabras, un coche no debe ser capaz de elegir si mata a una persona de acuerdo a unas determinadas características como la edad, el género o la constitución física o mental cuando un accidente es inevitable. 2. Preguntar sobre nuestra moralidad Los ingenieros deben recoger datos suficientes sobre medidas éticas para entrenar a los algoritmos de inteligencia artificial de la manera adecuada. Incluso después de haber definido métricas específicas para nuestros valores éticos, una máquina puede tener dificultad para escoger la opción adecuada si no hay suficientes datos contrastados para entrenar a los modelos. Obtener datos adecuados es difícil, porque las normas éticas no siempre pueden estandarizarse. Situaciones distintas requieren diferentes enfoques y en algunas situaciones puede no haber ni una sola respuesta adecuada. Una forma de arreglar estas situaciones podría ser preguntar sobre potenciales soluciones a dilemas morales de millones de humanos. Por ejemplo, el proyecto Máquina Moral del MIT enseña cómo preguntar a terceros puede servir para entrenar a las máquinas de forma efectiva para que tomen decisiones más ajustadas a la ética en el contexto de los coches autónomos. 3. Transparencia en la inteligencia artificial Los legisladores necesitan implementar directivas que obliguen a tomar decisiones de inteligencia artificial sobre ética de una manera más transparente, máxime en lo que se refiere a las métricas de la ética y sus consecuencias. Si los sistemas cometen errores con resultados indeseados, no podemos echarle la culpa al algoritmo.  

Artículos relacionados

hemeroteca

Los 8 inventos tecnológicos que cambiaron el mundo

TomTom Telematics ha recopilado esta curiosa lista de inventos tecnológicos que cambiaron el mundo… pero estuvieron a punto de no hacerlo. Estos son los 8 inventos tecnológicos más importantes de la historia 1. El ratón de ordenador El ratón fue un invento tecnológico concebido por el científico Douglas Engelbart y desarrollado por Xerox PARC, pero […]
hemeroteca

Perspectivas segundo semestre: ¿Qué activos que seguir de cerca?

El año pasado se desarrolló una historia a través de la cual todas las economías desarrolladas lograron un crecimiento en gran parte sincronizado. Se empezaron a gestar los cimientos de los que ahora mismo vivimos. En 2018, por el contrario, florecieron preocupaciones sobre cómo esta buena sintonía podía desaparecer. Así ha sido de manera reiterada […]
hemeroteca

Los errores en la declaración de la renta que pueden hacer que gaste de más

La declaración de la renta es una cita anual que todos los ciudadanos tenemos con Hacienda. Cada año se presentan casi 20 millones de declaraciones y más de un 70% resulta a devolver. Sin embargo, muchos contribuyentes podrían beneficiarse más de lo que lo hacen. Pero, ¡cuidado! No hacerla correctamente es sinónimo de multa y el […]
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


José Manuel Marín: “no tendría renta fija americana ni de broma”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po


Lo + leído

© MBRAND CONSULTING, SL 2024 Todos los derechos reservados