Por Jennifer Belissent, principal data strategist en Snowflake
Jennifer Belissent
| 06 nov 2024
Consideremos el hipotético escenario de una circulación vehicular desprovista de normas de circulación. A mayor densidad de coches, mayor probabilidad de coaliciones y congestionamiento vehicular. Este ejemplo muestra claramente que toda actividad que entrañe un riesgo potencial para la seguridad pública requiere la implementación de directrices que salvaguarden el bienestar colectivo. Una premisa que se aplica también para la IA. A medida que los consumidores, las empresas y los gobiernos usan más la IA se hacen cada vez más necesarias normas sobre cómo utilizarla de forma responsable. De hecho, el paralelismo con el sector automovilístico va más allá de la regulación y se extiende hasta la mayor concienciación sobre su impacto ambiental, un ámbito en el que la IA también debe enfocarse para consumir menos energía.
Hasta la fecha, gran parte del discurso en torno a la IA se ha centrado en grandes cuestiones existenciales como la “singularidad”, intentando saber cuándo la IA será más inteligente que los humanos, o si la IA nos sustituirá. La sustitución es inevitable. Los asistentes y agentes de IA asumirán muchas funciones de redacción de mensajes o código de software tomando decisiones en prácticamente todos los aspectos de nuestras vidas, nos demos cuenta o no.
Afortunadamente, dado que el futuro es ahora, la discusión ha perdido su tono catastrofista y se ha vuelto mucho más práctica en cuanto a las soluciones que se plantean. En gran medida, no hablamos de prohibir la IA, sino de diseñar políticas para mitigar los riesgos e implementar mecanismos de educación y cumplimiento. Siguiendo con la analogía de la conducción, estamos hablando de límites de velocidad y cinturones de seguridad, así como de educación vial y permisos de conducir. Los defensores de la IA responsable están adoptando el mismo enfoque: no prohibir la tecnología de la IA en sí, sino establecer barreras de protección para garantizar un uso responsable que mitigue los riesgos.
A pesar del hype y la cantidad de noticias que inquietan, no todo es pesimismo. Los modelos de IA han mejorado los procesos y la productividad en todos los sectores, desde la detección del cáncer de mama hasta la reducción de materiales de desecho, entre otros. Para abordar los efectos más nefastos, organizaciones de todo el mundo ya están publicando directrices y los gobiernos están aprobando leyes, como la Ley de IA de la Unión Europea. Los proveedores tecnológicos están desarrollando herramientas para mejorar la transparencia y la explicabilidad de la IA. Estas medidas son un primer paso, no solo para identificar y potencialmente rectificar los riesgos, sino también para educar a los usuarios y a los desarrolladores para que sean más conscientes del impacto que pueden tener estas nuevas tecnologías.
Otra observación positiva la vemos en la colaboración internacional. Sí, existen diferentes enfoques hacia la IA: un control más estricto en China y un enfoque autorregulador en los EE. UU., mientras que la Ley de la IA de la UE y su enfoque basado en el riesgo se puede ver un punto medio. Más allá de estos, los Acuerdos de Bletchley, firmados en el Reino Unido hace un año, ilustran el reconocimiento común del riesgo y el interés y la inversión en la colaboración para promover una mayor concienciación y seguridad.
Además de la regulación gubernamental e industrial, la gobernanza de la IA y los datos dentro de las organizaciones es fundamental. Para ayudar a comprender y mitigar los riesgos de la IA, todos dentro de la organización, desde el personal de base hasta la alta dirección, deben tener conocimientos sobre datos e IA. Deben saber cómo se utilizan los datos, el valor que aportan a sus organizaciones, los riesgos potenciales a los que deben estar atentos y cuál es su función. Desde un punto de vista más técnico o práctico, las organizaciones necesitan políticas de acceso y uso detalladas para garantizar que los datos estén bien protegidos y se utilicen adecuadamente. Todos en una organización desempeñan un papel en la cadena de valor, ya sea capturando datos con precisión, protegiéndolos, creando algoritmos y aplicaciones que analicen los datos o tomando decisiones basadas en la información obtenida.
Como todos sabemos, no existe una estrategia de IA sin una estrategia de datos, o, lo que es más importante, sin los datos en sí. A mayor cantidad y diversidad de datos, mejor se alimentarán los modelos de IA y se mitigan los riesgos de alucinaciones. Estas ocurren cuando los sistemas de IA ofrecen respuestas inexactas, o sesgos de IA, donde los sistemas producen resultados que no son objetivos ni neutrales. Los modelos de IA no suelen “inventarse” las respuestas, sino que pueden extraer información de fuentes poco fiables, como la historia de la IA que recomendó añadir pegamento a la salsa de pizza para evitar que el queso se deslizara. Especialmente en el mundo empresarial, donde hay mucho en juego, la diversidad, relevancia y alta calidad de los datos son el ingrediente principal.
En un afortunado giro del destino, la IA ahora está dando un paso al frente para abordar los problemas de calidad de los datos. Por ejemplo, las automatizaciones de IA pueden detectar anomalías, corregir datos de forma proactiva durante la ingesta, resolver inconsistencias entre entidades y crear datos sintéticos. La IA también puede ayudar a garantizar la seguridad de los datos al identificar vulnerabilidades. Esto no quiere decir que los líderes en datos puedan dormirse en los laureles. Las prácticas responsables de datos e IA exigen una gobernanza de datos sólida mediante el aprovechamiento de tecnologías que preservan la privacidad.
Finalmente, los datos deben ser relevantes para el caso de uso específico. En ese sentido, la IA empresarial se diferencia de las herramientas de IA general. Un modelo de IA empresarial se elige para abordar un desafío específico: predecir ventas, recomendar un producto o servicio, identificar anomalías o defectos en la fabricación o retrasos en la cadena de suministro. La elección del modelo de IA, incluida la decisión de construirlo, comprarlo o ajustarlo, puede mitigar los riesgos de alucinación o sesgo. La IA empresarial está diseñada con un propósito específico y, como resultado, puede ser más eficiente en el uso de recursos.
Hay otro asunto pendiente con la IA que no podemos ignorar. Se espera que la IA tenga un gran impacto en los campos relacionados con el clima, ayudando a optimizar el uso de combustibles fósiles e impulsando la adopción de otras formas de energía. Pero la propia IA es un devorador de energía. Los estudios de investigación estiman que ChatGPT utiliza actualmente más de medio millón de kilovatios-hora de electricidad al día, lo que equivale al consumo de casi 180.000 hogares estadounidenses. Es hora de que la IA se ayude a sí misma a encontrar soluciones para compensar su propia demanda energética.
Desde la perspectiva de las mejores prácticas, las empresas deben encontrar un equilibrio entre la experimentación con diferentes casos de uso de la IA y garantizar un uso adecuado, con un propósito genuino y, en última instancia, un retorno de la inversión. La adopción de la IA empresarial con agentes diseñados específicamente y entrenados de manera eficiente es un primer paso. La transparencia en toda la cadena de valor, desde las entradas hasta las salidas y los resultados, permite una mayor comprensión del impacto ambiental y las compensaciones realizadas en aras del valor comercial.
Fomentar el diálogo abierto y avanzar hacia la transparencia de la IA, y con suerte hacia su explicabilidad, son los primeros pasos fundamentales para mitigar los riesgos de la IA. La colaboración global que ya se está produciendo en eventos como la Cumbre Mundial sobre Seguridad de la IA, que dio lugar al Acuerdo de Bletchley, es alentadora. Concienciar a las empresas —en todos los niveles— y a los consumidores aumenta el grupo de posibles vigilantes y los equipa con las señales que deben buscar y las preguntas que deben hacer. Como se suele decir, la experiencia es el mejor maestro.
Esas lecciones pueden aplicarse para mejorar la comprensión y definir los requisitos de las plataformas de datos e IA del futuro. Dichos requisitos ampliarán las consideraciones actuales en torno a la diversidad, seguridad, gobernanza y sostenibilidad de los datos. Pero la verdadera clave para una IA más segura será una comprensión más profunda —del potencial tanto para el bien como para el mal— que provenga de una alfabetización en datos e IA más amplia y social.