Por Héctor Benítez, Head of Business & Solutions Compliance de Camerfirma (Grupo Infocert-Tinexta)
Héctor Benítez
| 10 oct 2024
Del mismo modo que un coche nos inspira confianza solo si quien lo conduce es una persona en la que confiamos plenamente, la inteligencia artificial nos plantea una cuestión similar. Por mucho que un fabricante haya diseñado un vehículo con todas las garantías de seguridad, al final, lo que realmente nos tranquiliza es saber que el conductor tiene la pericia y el juicio necesarios para manejarlo con responsabilidad. Ahora bien, cuando una empresa pone en marcha un proyecto de IA y entrega la interfaz al cliente, ¿podemos estar seguros de que ese “conductor” virtual actúa con la misma diligencia?
Este agosto entró en vigor la Ley de Inteligencia Artificial de la Unión Europea, la primera legislación mundial que se atreve a poner freno a los posibles riesgos de esta tecnología. Con el Reglamento de Inteligencia Artificial (RIA), la UE ha asumido la misión, vital sin duda, de garantizar la seguridad y los derechos fundamentales de sus ciudadanos frente al uso y desarrollo de la IA. A primera vista, esto suena como un hito, un gran avance en la gestión de tecnologías emergentes. Sin embargo, si rascamos un poco más allá de la superficie, descubrimos que esta ley, aunque pionera, se queda corta en un aspecto crucial: su capacidad para fomentar soluciones técnicas innovadoras y mejorar la experiencia del usuario.
El corazón del RIA radica en la protección de datos y la regulación del uso, aspectos esenciales para cualquier normativa moderna. El reglamento clasifica los sistemas de IA en diferentes niveles de riesgo, estableciendo estrictos estándares de transparencia y supervisión, especialmente para aquellos considerados de alto riesgo, como los sistemas médicos o los algoritmos de contratación laboral. Este enfoque garantiza que, al menos en teoría, las aplicaciones de IA que afectan directamente a nuestras vidas sean utilizadas con el máximo respeto a nuestros derechos fundamentales.
No obstante, lo que la ley pasa por alto es igual de revelador. En su empeño por mitigar los riesgos, el reglamento ha dejado de lado la oportunidad de marcar un verdadero camino hacia el desarrollo técnico de la IA. No se establecen estándares claros para la creación de algoritmos, no hay requisitos exhaustivos para la prueba y validación de modelos, ni normativas que aseguren la equidad y minimicen los sesgos. En lugar de ser una guía integral que oriente a los desarrolladores en la creación de tecnologías más seguras y efectivas, la ley se contenta, por el momento, con regular su uso y proteger los datos.
Esta omisión no es menor. Una regulación innovadora debería ir más allá de la mera protección; debería fomentar activamente un ecosistema donde la innovación y la seguridad caminen de la mano. Pero al no ofrecer directrices técnicas claras, la UE pierde la oportunidad de establecer un estándar global que realmente guíe el futuro de la IA. Peor aún, genera incertidumbre entre los desarrolladores, especialmente aquellos que trabajan en pequeñas y medianas empresas, que podrían verse atrapados entre la necesidad de cumplir con normativas cada vez más estrictas y el impulso de innovar.
El RIA pretende, según sus defensores, apoyar la innovación al reducir las cargas administrativas y financieras para las pymes. Pero sin un marco técnico robusto que las guíe, estas empresas podrían enfrentarse a desafíos adicionales. La paradoja es evidente: en su intento de regular, la UE podría estar frenando precisamente lo que más necesita impulsar: la innovación.
La Ley de Inteligencia Artificial de la UE representa un paso significativo en la regulación de una tecnología que está remodelando nuestras sociedades. Sin embargo, su enfoque en la protección de datos y la regulación del uso deja un vacío preocupante en cuanto a las directrices técnicas para el desarrollo de la IA. Esta es una oportunidad perdida para que la UE se posicione como líder global en la regulación integral de la tecnología. Si Europa quiere estar a la vanguardia de la IA, debe mirar más allá de la protección y abrazar la innovación. Porque, al igual que en la carretera, no solo necesitamos confiar en el coche, sino también en quien lo conduce.