Una de las mayores virtudes de Colossus es su infinita capacidad para procesar enormes cantidades de datos a velocidades sin precedentes
Sebastián Fernández
| 27 nov 2024
Cada día gana más detractores y, también, fans incondicionales. El nombre de Elon Musk provoca tantas controversias como suyas son las ganas de hacer ‘ruido’ a nivel planetario de manera frecuente. Pero nada ni nadie podrá decir que este hombre está empeñado en sorprender de manera permanente a propios y extraños.
Es tal la seguidilla de decisiones plagadas de polémicas, inversiones colosales, anuncios estrambóticos, descubrimientos increíbles, actitudes osadas, estilos rimbombantes, y cambios de rumbo permanentes (con su sello inconfundible, ese que mezcla irreverencia, valentía, prepotencia y tanto más) que realmente no da tregua.
Ahora ha venido a revolucionar el mundo con su nuevo juguete universal: el pasado 2 de septiembre, Musk publicó que su equipo de xAI -su empresa de desarrollo e investigación de inteligencia artificial (IA), en la que invierte cada vez más millones a diario, en su afán explícito de gobernar el mundo- lanzó en línea su clúster de entrenamiento Colossus.
Se trata del sistema de entrenamiento de inteligencia artificial más potente del mundo. No es simplemente un anuncio marketinero de autopropaganda. La afirmación se sostiene en el número de unidades de procesamiento gráfico (GPU) que alimentan el nuevo modelo (100.000 GPU H100). Solo para tomar como referencia: esta versión supera infinitamente todos los grandes desarrollos similares que habían sido lanzados hasta la fecha. En comparación, el modelo más potente hasta ahora era el de Google: 90.000. Después le siguen el de OpenAI (80.000), Meta (70.000), Microsoft (60.000) y Nvidia (50.000 GPU). ¡Increíble!
Detrás de este nuevo ‘jugador’ que sale a escena para romper con todos los moldes establecidos hasta ahora, conviene repasar cuáles son sus características y matices en los entresijos de un arma que provocará un punto de inflexión en el campo de la inteligencia artificial: Colossus llega de la mano de Nvidia, el principal fabricante de chips semiconductores del mundo. El H200 de Nvidia es uno de los semiconductores más codiciados del mercado, aunque recientemente ha sido superado por el último chip Blackwell de la compañía, presentado en marzo de 2024.
El H200 está equipado con 141 gigabytes de memoria HBM3E y 4.8 terabytes por segundo de ancho de banda. La capacidad máxima de Blackwell es un 36.2% superior a la del H200 y un 66.7% superior en ancho de banda total. Esto habla por sí solo de una potencia nunca vista hasta ahora.
Nvidia promete que esta innovación tendrá “ganancias excepcionales” en eficiencia energética, como no se conocía hasta este preciso instante. En realidad, este es el aperitivo de lo que Musk tiene entre manos para 2025: piensa construir un superordenador que podría estar operativo en otoño del año siguiente y asociarse con Oracle para desatar un tsunami infinito para la humanidad.
Pero detrás de sus planes siempre faraónicos hay mucha controversia, como no podía ser de otra manera si de Elon Musk hablamos. Él supuestamente apoya públicamente las normativas que promueven una IA segura. Pero, hace semanas, publicó en su red social X que cree que el estado de California debería aprobar su proyecto de ley 1047 del Senado. Mete presión por ese lado, pero genera cada vez más opiniones negativas entre varios peces gordos en la industria tecnológica norteamericana: muchos temen que su movida pueda frenar la innovación en IA en Estados Unidos.
El excéntrico empresario se defiende con que viene pugnando por una regulación de la IA desde hace 20 años: la interpreta similar a las regulaciones sobre “cualquier producto/ tecnología que sea un riesgo potencial para el público”.
Ha ido más allá para demostrar con actos y gestos su postura, el 9 de agosto pasado, X aceptó suspender el tratamiento de datos personales de sus usuarios en la Unión Europea tras un proceso judicial en un tribunal irlandés en el que estaba implicada la Comisión de Protección de Datos local.
Volviendo a Colossus, el mundo se rinde a los pies de Musk por el rol vital que este desarrollo puede suponer para la próxima generación del modelo de lenguaje grande (LLM) de xAI, llamado Grok. Este modelo está diseñado para competir directamente con el GPT-4 de OpenAI. Según Elon Musk, xAI tiene planes de lanzar Grok-3 en diciembre de este año, marcando un avance significativo en la evolución de su inteligencia artificial. Imparable…
El dulce hogar de la nueva y potentísima innovación es Memphis (EE.UU.), que no solo podrá mostrar orgullosa en breve las postales, tazas y camisetas de uno de sus más universales íconos, Elvis, sino también (¿por qué no?) de este superordenador impactante. Allí se erige su descomunal centro de datos.
Para hacerlo posible, xIA se alió con Dell Technologies y Super Micro Computer, dos compañías de vanguardia de las más reconocidas del globo en materia de nuevas tecnologías. Para la puesta en marcha se alcanzó un respaldo financiero muy considerable: el pasado mes de mayo, la compañía recaudó 6 mil millones de dólares en una ronda de financiación Serie B, con la participación de inversores de peso como Andreessen Horowitz y Sequoia Capital (reconocidos bussiness angels y “unicornios” en el mundillo que nos ocupa).
Al margen de los temores ya mencionados más arriba que suscita la postura de Musk en materia de regulaciones que puedan frenar o no a la industria para competidores y pares, hay otro sector que ha levantado estandartes de quejas contra Colossus: los medioambientalistas creen que puede llegar a provocar serios daños. La máquina solo puede funcionar mediante el uso de turbinas alimentadas por gas. Muchos hablan de que esto puede elevar los niveles de smog en Memphis que superen cualquier estándar nacional de calidad del aire.
El Centro de Derecho Ambiental del Sur (SELC, por sus siglas en inglés) ya envió una carta al Departamento de Salud del Condado de Shelby señalando que el superordenador de xAI “requiere una enorme cantidad de electricidad”.
Del otro lado, Musk sonríe con ese estilo socarrón y chulesco que le caracteriza para afirmar que Colossus es más grande que cualquier otro sistema de IA creado hasta el momento, y que algún impacto colateral puede llegar a desatar. Pero niega rotundamente las especulaciones de los medioambientalistas.
El modelo de lenguaje grande (LLM) de xAI, llamado Grok, es el alma del proyecto. De reojo (o, más bien, mirando directamente a la ‘tierra Musklandia’), OpenAI, Meta y Microsoft -acaso tres de los cinco más grandes competidores en la carrera universal por la IA- están realizando inversiones similares para desarrollar y entrenar modelos de IA avanzados. No quieren quedarse atrás, pero el desafío resulta mayúsculo. Microsoft ya ha desvelado que busca obtener 1.8 millones de chips de IA. Y Meta avanza a un ritmo imparable en este espacio.
¿Hasta dónde llegará Colossus? ¿Cuáles son los objetivos que busca conquistar? Hasta ahora, se sabe que los chips Nvidia H100 que alimentan su engranaje permiten realizar complejas labores de inteligencia artificial, especialmente en el entrenamiento de redes neuronales profundas.
Gracias a su arquitectura diseñada para manejar siderales volúmenes de datos, Colossus es capaz de acelerar significativamente el tiempo que normalmente tomaría entrenar modelos de lenguaje de gran escala.
Además, respecto a la IA generativa, esta tecnología ya ha demostrado ser un factor clave en la creación de modelos avanzados de lenguaje, que a su vez pueden ser aplicados en áreas como la medicina, la automatización industrial, y el análisis de grandes cantidades de datos.
Para la IA generativa, Colossus representa todo un universo inmenso por recorrer. Tendrá la capacidad evidente para crear contenidos nuevos y relevantes a partir de la información ya existente. Los avances en este campo serán aún más vertiginosos y certeros de los que conocemos hasta el momento. No es descabellado pensar que miles de empresas, a partir de ahora, se podrán servir de desarrolladores de estas características para generar modelos de lenguaje mucho más sofisticados… ¡en menos tiempo!
El insaciable Musk no ahorra promesas para todos. Dice que su nuevo producto será accesible para una variadísima gama de aplicaciones, desde la medicina hasta el sector financiero, pasando por la industria automotriz, espacial y tantas otras.
En su argumentario, parte de una premisa: quienes -a través de la IA- acudan a este tipo de tecnologías, podrán acelerar la resolución de problemas complejos, que van desde diagnósticos médicos más rápidos y precisos hasta la creación de sistemas autónomos avanzados.
En lo diario, una de las mayores virtudes de Colossus es su infinita capacidad para procesar enormes cantidades de datos a velocidades sin precedentes, y sus artífices van más allá: no solo permitirá un avance acelerado en el desarrollo de IA a escala supersónica, sino que también redefinirá probablemente los límites de lo que es posible en términos de tecnología multimodal.
Por ello, el sistema está llamado a cambiar la forma en que la inteligencia artificial interactúa con el mundo. Pero, al margen de esto, no deja de sorprender también la velocidad de la luz con la que fue creado Colossus: sus ingenieros tardaron tan solo 122 días en fabricarlo.
Como si fuera poco, hay más, señores: Musk ya ha dicho que quiere duplicar la potencia de este sistema de entrenamiento de xAI lo antes posible. En un post reciente, no vaciló en escribir que piensa elevar un 100% el tamaño del Colossus hasta 200k (50k H200s) “en unos meses”. Si dice esto, es obvio que trama nuevos objetivos y metas que impulsen esa rápida expansión. Empecemos a temblar…
En paralelo, o como telón de fondo, se encuentra la firma xIA de Musk… Indudablemente, ellos deben colgarse esta medalla. Cuando fue fundada hace poco más de un año, el bueno de Elon dijo (al mejor estilo del laureado físico Stephen Hawking) que el propósito de la firma era “comprender la verdadera naturaleza del universo”.
Los más grandes jerarcas de esta firma son todos ‘cerebros’ que pasaron por las filas de OpenAI, DeepMind, Google Research, Microsoft Research, Tesla y Twitter. Dan Hendrycks, el ‘gurú’ y director ejecutivo del Center for AI Safety, es también uno de los asesores.
A poco más de su irrupción en el mercado, la empresa obtuvo 6.000 millones de dólares en una ronda de financiación, con lo que alcanzó una valoración de 24.000 millones de dólares, en un momento en que los inversores apostaban a lo grande por competir con empresas como OpenAI en la creciente carrera por la inteligencia artificial.
Una de las últimas criaturas de esta especie de “Rey Midas” que es Elon Musk ha vuelto a generar rispideces con los popes de otros mega-tanques en este terreno. No debe olvidarse que el propio Musk fue uno de los grandes inversores que fundaron OpenAI en 2015. En aquel entonces, la startup quería funcionar como un laboratorio sin ánimo de lucro, algo que cambió radicalmente en 2019. En 2018, el magnate ya había abandonado la empresa. La versión ‘blanca’ o descafeinada fue que su salida obedeció a un posible conflicto de interés con Tesla.
Fuese lo que fuese, el clima entre Elon y Sam Altman, máximo responsable de la creadora de ChatGPT, se sigue caldeando. El pasado mes de marzo, Musk decidió ir con todo: demandó a OpenAI y a sus líderes, acusándoles de incumplir la misión fundacional de la firma, abogar por el desarrollo de la IA en “beneficio de la humanidad”. Altman dijo a sus empleados que la denuncia de Musk era señal de su frustración por no participar en los éxitos recientes de la compañía.
Pero ahora, seguramente, la llegada de Colossus le habrá provocado, al menos, acidez. Nadie regala un centímetro en el tablero por dominar la IA en la Tierra. En esa instancia, la contienda realmente es para alquilar balcones. Hay morbo asegurado, mientras otros pesos pesados como Mark Zuckerberg y otros afilan espadas para meterse en el barro con nuevos y sorprendentes proyectos, muchos de los cuales aún se mantienen en el más estricto hermetismo. Disfrutemos con palomitas: lo que viene realmente será grande… y apasionante.