DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Domingo, 24 de noviembre de 2024
Últimas noticias
D
D

Opinión

El futuro de la inteligencia artificial en la nube pasa por la inferencia

Por Kevin Cochrane, Chief Marketing Officer en Vultr

Kevin Cochrane

31 may 2024

En el año 2024 no podemos seguir ignorando el profundo impacto que la Inteligencia Artificial (IA) está teniendo en nuestras operaciones en todas las empresas y sectores del mercado. Según el estudio Uso de inteligencia artificial y big data en las empresas españolas, elaborado por el Observatorio Nacional de Tecnología y Sociedad, el 41,2% de las grandes empresas españolas utilizan algún tipo de IA en sus flujos de trabajo. Dentro de las pymes, el porcentaje es el 20% y entre las pequeñas empresas, el 9,4%. Esta realidad va en aumento, España Digital 2026 fija la meta de que para 2025 el 25% de las empresas españolas usen inteligencia artificial y big data. Por su parte, la UE ha marcado el objetivo de que para 2030 el 75% de las empresas europeas hayan adoptado servicios de computación en nube, macrodatos e inteligencia artificial.

Con la creciente adopción de la IA y la IA Generativa (GenAI), el futuro de nuestra interacción con la web depende de nuestra capacidad para aprovechar el poder de la inferencia. La inferencia se produce cuando un modelo de IA entrenado utiliza datos en tiempo real para predecir o completar una tarea, poniendo a prueba su capacidad para aplicar los conocimientos adquiridos durante el entrenamiento. Es el momento en el que el modelo de IA demuestra la eficacia para aplicar la información de lo que ha aprendido. La capacidad de aprovechar los conocimientos de la IA y lograr una verdadera personalización será fundamental para la captación de clientes y el éxito empresarial en el futuro a través de sectores, desde sanidad, comercio electrónico hasta la gran variedad de ámbitos tecnológicos.

Inferencia: la clave de la verdadera personalización

La clave de la personalización reside en el despliegue estratégico de la inferencia mediante la ampliación de grupos de inferencia más cercanos a la ubicación geográfica del usuario final. Este enfoque garantiza que las predicciones basadas en IA para las solicitudes entrantes de los usuarios sean precisas y se entreguen con retrasos mínimos y poca latencia. Las empresas deben aprovechar el potencial de GenAI para desbloquear la posibilidad de ofrecer experiencias de usuario a medida y personalizadas.

Las empresas que no hayan previsto la relevancia de inferencia de IA en la nube se quedarán atrás ya que es la clave para obtener resultados reales con GenAI. De esta forma, las organizaciones pueden aprovechar la innovación en los modelos de lenguaje de código abierto (LLM por sus siglas en inglés de Large Language Models), y hacer realidad la verdadera personalización.

Una nueva aplicación web

Antes de la entrada de la GenAI, la atención se centraba en ofrecer contenidos preexistentes sin ofrecer personalización próxima al usuario final. Ahora, a medida que más empresas experimenten la transformación GenAI, veremos la inferencia de IA desde la nube hasta edge, donde los LLM compactos pueden crear contenidos personalizados según las indicaciones de los usuarios.

Algunas empresas aún carecen de una estrategia sólida de edge computing, y mucho menos de una estrategia edge relacionada con GenAI. Por eso, es necesario que conozcan la importancia del entrenamiento centralizado, la inferencia local y el despliegue global. En este caso, la inferencia de IA en edge requiere que las organizaciones dispongan de una pila distribuida de unidades de procesamiento gráfico (GPU) para entrenar y ajustar los modelos con conjuntos de datos localizados. Una vez perfeccionados estos conjuntos de datos, los modelos se despliegan globalmente a través de los centros de datos para cumplir las normativas locales sobre soberanía de datos y privacidad. De esta forma, las empresas pueden ofrecer una experiencia de cliente mejor y más personalizada integrando la inferencia en sus aplicaciones web mediante este proceso.

Para implementar GenAI se precisa una potencia de procesamiento en la GPU, pero estas suelen no estar al alcance de la mayoría de las empresas debido a su elevado coste. A la hora de implantar GenAI, las empresas deberían recurrir a LLM más pequeños y de código abierto en lugar de a centros de datos de hiperescaladores para garantizar la flexibilidad, la precisión y la rentabilidad. Las empresas pueden evitar servicios complejos e innecesarios, un enfoque de “lo tomas o lo dejas” que limita la personalización y la dependencia de un proveedor que dificulta la migración de cargas de trabajo a otros entornos.

GenAI a lo largo del año: dónde estamos y hacia dónde nos dirigimos

La industria puede anticipar un cambio en el panorama de las aplicaciones web para finales de 2024 con la aparición de las primeras aplicaciones impulsadas por modelos GenAI.

Entrenar modelos de IA de forma centralizada permite un aprendizaje exhaustivo a partir de vastos conjuntos de datos. El entrenamiento centralizado garantiza que los modelos estén bien equipados para comprender patrones y matices complejos, proporcionando una base sólida para predicciones precisas. Su verdadero potencial se observará cuando estos modelos se hayan desplegado a escala mundial, lo que permitirá a las empresas aprovechar una amplia gama de mercados y comportamientos de los usuarios.

El elemento clave es el componente de inferencia local. Inferir localmente implica acercar la potencia de procesamiento al usuario final, un paso fundamental para minimizar la latencia y optimizar la experiencia del usuario. En paralelo con el auge del edge computing, la inferencia local se alinea a la perfección con la distribución de tareas computacionales más cerca de donde se necesitan, garantizando respuestas en tiempo real y mejorando la eficiencia.

Este enfoque tiene implicaciones significativas para varias industrias, desde el comercio electrónico a la sanidad. Imaginemos que una plataforma e-commerce utilizara GenAI para recomendaciones personalizadas de productos. Al inferir localmente, la plataforma analiza las preferencias del usuario en tiempo real y ofrece sugerencias personalizadas que se ajustan a sus necesidades inmediatas. El mismo concepto se aplica a las aplicaciones sanitarias, en las que la inferencia local mejora la precisión del diagnóstico al proporcionar información rápida y precisa sobre los datos del paciente.

Esta tendencia hacia la inferencia local también responde a las preocupaciones por la privacidad de los datos y el cumplimiento de la normativa. Al procesar los datos más cerca de la fuente, las empresas pueden cumplir los requisitos normativos y garantizar al mismo tiempo que la información sensible permanezca dentro de los límites geográficos establecidos por las leyes de protección de datos.

La era de la inferencia ha llegado

El camino hacia el futuro de las aplicaciones web basadas en IA está marcado por tres estrategias: entrenamiento centralizado, despliegue global e inferencia local. Este enfoque no sólo mejora las capacidades de los modelos de IA, sino que es independiente del proveedor, prescindiendo de la plataforma de computación en nube o del proveedor de servicios de IA. A medida que nos aproximamos a una nueva etapa de la era digital, las empresas han de reconocer el papel fundamental que desempeña la inferencia en la configuración del futuro de las aplicaciones web basadas en IA. Aunque existe una tendencia marcada a centrarse en el entrenamiento y el despliegue de IA, acercar la inferencia al usuario final es igual de esencial. Su impacto colectivo ofrecerá oportunidades sin precedentes para la innovación y la personalización en diversos sectores.

Artículos relacionados

Opinión

El rol de las apps de pago en la personalización de la experiencia del cliente

Por Marta Salvador, CMO de Waylet
Opinión

El riesgo de las amenazas internas que las empresas ignoran por su cuenta y riesgo

Por Álvaro García Abarrio, country manager de WatchGuard Technologies en Iberia
Opinión

El futuro del ecommerce: innovaciones tecnológicas que marcan la diferencia

Por Ángela Baus Navarro, CEO de Cajeando
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


José Manuel Marín: “no tendría renta fija americana ni de broma”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po


Lo + leído

© MBRAND CONSULTING, SL 2024 Todos los derechos reservados