Google anuncia la ampliación de su asociación estratégica con Anthropic. Las dos empresas han colaborado estrechamente desde la fundación de Anthropic en 2021, y juntas están presentando nuevas actualizaciones que apoyan el desarrollo de la IA. Los aspectos más destacados son: Anthropic es una de las primeras empresas en implementar a escala los chips TPUv5e […]
Las empresas hablanDirigentes Digital
| 14 nov 2023
Google anuncia la ampliación de su asociación estratégica con Anthropic. Las dos empresas han colaborado estrechamente desde la fundación de Anthropic en 2021, y juntas están presentando nuevas actualizaciones que apoyan el desarrollo de la IA. Los aspectos más destacados son:
Anthropic es una de las primeras empresas en implementar a escala los chips TPUv5e de Google Cloud, nuestro acelerador de IA más rentable y escalable hasta la fecha. TPU v5e permite a Anthropic dar servicio a su Claude LLM de forma eficiente y con un alto rendimiento.
Anthropic también utiliza ahora los servicios de seguridad de Google Cloud, incluidos Chronicle Security Operations, Secure Enterprise Browsing y Security Command Center, para garantizar que las organizaciones que despliegan los modelos de Anthropic en Google Cloud (y los propios empleados y contratistas de Anthropic) estén protegidos frente a las ciberamenazas.
Por último, Anthropic y Google Cloud se han comprometido a trabajar juntos para avanzar en la seguridad de la IA, anunciando su colaboración conjunta con la organización sin ánimo de lucro MLCommons como parte de un nuevo grupo de trabajo AI Safety para AI Safety Benchmarking.
Además, Google Cloud también anuncia nuevas actualizaciones para TPU v5e, incluyendo:
TPU v5e ya está disponible de forma general (al igual que nuestras tecnologías Singlehost inference y Multislice Training), proporcionando a los clientes una plataforma TPU unificada tanto para cargas de trabajo de formación como de inferencia.
En los últimos resultados de MLPerf™ Training 3.1, TPU v5e demuestra una mejora de 2,3 veces en la relación precio-rendimiento en comparación con la TPU v4 de la generación anterior para el entrenamiento de grandes modelos lingüísticos (LLM). Esto sigue a la prueba de referencia MLPerf 3.1 Inferencing de septiembre, en la que se observó un rendimiento de servicio 2,7 veces superior por dólar en comparación con Cloud TPU v4.