La Inteligencia Artificial ya está entre nosotros, aunque aún no sepamos muy bien qué hacer con ella. Tal vez las decenas de cómics y películas de ciencia ficción en las que hemos visto a las máquinas dominar a los humanos hayan enturbiado un poco nuestro entendimiento pero no dejan de ser muy ciertos los riesgos […]
Dirigentes Digital
| 21 oct 2021
La Inteligencia Artificial ya está entre nosotros, aunque aún no sepamos muy bien qué hacer con ella. Tal vez las decenas de cómics y películas de ciencia ficción en las que hemos visto a las máquinas dominar a los humanos hayan enturbiado un poco nuestro entendimiento pero no dejan de ser muy ciertos los riesgos intuidos por sus autores. Hay dos evidencias incontrovertibles: que la Inteligencia Artificial puede utilizarse, y de hecho se utiliza, para fines poco éticos; y que su desarrollo es ya imparable. ¿Cómo conjugar entonces esas dos certezas?, ¿es posible regular la Inteligencia Artificial para disfrutar de sus beneficios evitando sus aplicaciones más perversas?
La Unión Europea está ya trabajando en ello, aunque tal vez le hayan faltado reflejos para meterse antes en harina. El pasado mes de abril, la Comisión Europea presentó un informe de 81 páginas en el que se plasmaba una propuesta regulatoria sobre la Inteligencia Artificial y sus aplicaciones. El documentado, elaborado con el objeto de proteger los derechos y valores fundamentales promovidos por la UE, se centra sobre todo en la gestión de lo que califica como sistemas de Inteligencia Artificial de “alto riesgo”.
Asimismo, el texto hacía oficial la creación de un Consejo Europeo de Inteligencia Artificial. Este organismo está constituido por un representante de cada uno de los Estados de la UE y por un miembro de la Comisión Europea. Su cometido será el de asesorar en la creación de una legislación europea capaz de reconciliar dos objetivos estratégicos. Por un lado, que la UE no pierda el tren de la innovación tecnológica—ya ha destinado cerca de 20.000 millones de euros para la transformación digital de la economía—convirtiéndose así en una potencia subsidiaria de China o Estados Unidos y, por otro, evitar que arraiguen en el continente tecnologías que sean contrarias a los valores democráticos y al respeto de los Derechos Humanos. Un campo de minas ciertamente endiablado.
El texto en cuestión, aunque excluye las tecnologías de aplicación militar, propone vetar los sistemas de reconocimiento facial con fines de vigilancia y los algoritmos que “manipulan el comportamiento humano”. También se incluyen en la lista negra los sistemas de puntuación social, ya plenamente aceptados en China, que califican la conducta del ciudadano y establecen premios y castigos según cómo se comporte. Se propone asimismo prohibir aquellas tecnologías que utilizan datos o predicciones de comportamiento de personas o colectivos con la finalidad de explotar y aprovecharse de sus debilidades.
Más allá de tecnologías concretas, la Unión Europea se propone prohibir aquellas prácticas que contradicen los valores de la institución. El documento cita, por ejemplo, “vigilancia indiscriminada” o “el seguimiento y la vigilancia de personas en entornos digitales o físicos”. Y, para hacer cumplir estas prohibiciones, el informe propone unas multas “eficaces, proporcionadas y disuasivas” que podrían llegar a suponer hasta el 4% de los ingresos anuales de las empresas infractoras.
La gran pregunta que cabe hacer es si es viable y realista vetar el desarrollo de estas tecnologías. De momento, se ha dado un primer paso en este sentido. A comienzos de octubre, el Parlamento Europeo decidió por mayoría absoluta prohibió el uso de sistemas de reconocimiento facial en espacios públicos.
Pero quienes conocen la industria por dentro ven las cosas muy distintas. El Pew Research Center, un think tank con base en Washington, publicó esta primavera un contundente informe sobre las percepciones que se tienen en la industria de la Inteligencia Artificial acerca de los caminos que tomará en los próximos años. El documento, además de en abundante bibliografía, está basada en entrevistas a 602 personas que conocen bien el sector: programadores, empresarios, ingenieros, informáticos e inversores.
En total, un 68% de los encuestados creen que es poco probable que, en la próxima década, se adopte un diseño ético de la Inteligencia Artificial centrado en el interés público. La inmensa mayoría de los entrevistados cree que, de aquí a 2030, la IA seguirá centrada en la maximización de beneficios para las empresas y en el desarrollo de herramientas para el control social. De cumplirse sus vaticinios, ¿quedará la UE al margen de la innovación en Inteligencia Artificial?, ¿es posible fomentar un desarrollo de estas tecnologías respetuoso con los valores de la institución? El Código Ético de Conducta para la Inteligencia Artificial, aprobado por el Parlamento Europeo en 2017, se basa en ocho principios entre los que se cuentan el respeto a la libertad humana, la privacidad o el acceso igualitario a la Inteligencia Artificial. ¿Acabará siendo papel mojado la política de la UE sobre Inteligencia Artificial?, ¿acabará reculando y aceptando los sistemas de puntuación social o de reconocimiento facial? Habrá que seguir el tema los próximos años.