Trillium, el chip de inteligencia artificial más potente y eficiente en energía desarrollado por Google hasta ahora
Introducción a Trillium: Un innovador chip de IA de Google
Google, a través de su compañía matriz, Alphabet, ha revelado su último desarrollo en hardware para centros de datos de inteligencia artificial (IA), denominado Trillium. Esta tecnología, que consiste en Unidades de Procesamiento Tensorial (TPUs), representa una alternativa extraordinaria a los chips de IA de Nvidia y amplía las posibilidades en el ámbito de la IA.
IA y competencia en el mercado de hardware
En la actualidad, Nvidia ostenta el 80% del mercado de chips de IA, mientras que Google se queda con el restante 20%. A diferencia de su competidor, Google no vende sus TPUs, sino que las renta a través de su plataforma de computación en la nube.
Rendimiento y eficiencia energética de Trillium
El último conjunto de TPUs de Google, Trillium, representa la sexta generación de estos dispositivos, con un rendimiento y eficiencia energética nunca antes vistos. Según Google, Trillium ofrece un rendimiento máximo por chip de hasta un 4.7 veces superior al de la generación anterior, TPU v5e. Entre sus atributos más destacados se encuentran el doble de capacidad y ancho de banda de memoria de alta capacidad (HBM) y una mayor capacidad para procesar incrustaciones ultra-grandes en cargas de trabajo avanzadas de clasificación y recomendación.
Escalabilidad y eficiencia en TPUs Trillium
Una de las ventajas de Trillium es que es un 67% más eficiente en energía que el TPU v5e. Además, puede escalar hasta 256 TPUs en un único sistema de alta capacidad y baja latencia. Gracias a sus tecnologías multislice y Unidades de Procesamiento de Inteligencia Titanium (IPUs), Trillium puede interconectar decenas de miles de chips en un superordenador a escala de edificio.
Mejoras en el rendimiento y rendimiento
Google ha logrado aumentar el rendimiento de cálculo de Trillium al incrementar el tamaño de las unidades de multiplicación de matrices (MXUs) y la velocidad del reloj. La empresa afirma que los TPUs Trillium impulsarán el desarrollo de futuros modelos y agentes de IA.
Impacto en los servicios de computación en la nube
Organizaciones como Deep Genomics y Deloitte, que dependen de los servicios de Google Cloud, se verán favorecidas por el uso del nuevo chip. Trillium permitirá a Google DeepMind entrenar y servir futuras generaciones de modelos Gemini de manera más rápida, eficiente y con menor latencia.
Además, los TPUs Trillium son fundamentales para la Supercomputadora de IA de Google Cloud, una arquitectura de supercomputación diseñada específicamente para cargas de trabajo de IA de vanguardia.
Gemini 1.5 Pro es el modelo de IA más grande y capaz de Google, y fue entrenado usando decenas de miles de aceleradores TPU.
Nuestro equipo está entusiasmado con el anuncio de la sexta generación de TPUs, y esperamos con ansias el aumento en rendimiento y eficiencia para el entrenamiento e inferencia a la escala de nuestros modelos Gemini.
Jeff Dean, científico en jefe de Google Deepmind y Google Research.
Vía google.com