Actualidad

Trillium, el chip de inteligencia artificial más potente y eficiente en energía desarrollado por Google hasta ahora

Introducción a Trillium: Un innovador chip de IA de Google

Google, a través de su compañía matriz, Alphabet, ha revelado su último desarrollo en hardware para centros de datos de inteligencia artificial (IA), denominado Trillium. Esta tecnología, que consiste en Unidades de Procesamiento Tensorial (TPUs), representa una alternativa extraordinaria a los chips de IA de Nvidia y amplía las posibilidades en el ámbito de la IA.

IA y competencia en el mercado de hardware

En la actualidad, Nvidia ostenta el 80% del mercado de chips de IA, mientras que Google se queda con el restante 20%. A diferencia de su competidor, Google no vende sus TPUs, sino que las renta a través de su plataforma de computación en la nube.

Rendimiento y eficiencia energética de Trillium

El último conjunto de TPUs de Google, Trillium, representa la sexta generación de estos dispositivos, con un rendimiento y eficiencia energética nunca antes vistos. Según Google, Trillium ofrece un rendimiento máximo por chip de hasta un 4.7 veces superior al de la generación anterior, TPU v5e. Entre sus atributos más destacados se encuentran el doble de capacidad y ancho de banda de memoria de alta capacidad (HBM) y una mayor capacidad para procesar incrustaciones ultra-grandes en cargas de trabajo avanzadas de clasificación y recomendación.

Escalabilidad y eficiencia en TPUs Trillium

Una de las ventajas de Trillium es que es un 67% más eficiente en energía que el TPU v5e. Además, puede escalar hasta 256 TPUs en un único sistema de alta capacidad y baja latencia. Gracias a sus tecnologías multislice y Unidades de Procesamiento de Inteligencia Titanium (IPUs), Trillium puede interconectar decenas de miles de chips en un superordenador a escala de edificio.

Mejoras en el rendimiento y rendimiento

Google ha logrado aumentar el rendimiento de cálculo de Trillium al incrementar el tamaño de las unidades de multiplicación de matrices (MXUs) y la velocidad del reloj. La empresa afirma que los TPUs Trillium impulsarán el desarrollo de futuros modelos y agentes de IA.

Impacto en los servicios de computación en la nube

Organizaciones como Deep Genomics y Deloitte, que dependen de los servicios de Google Cloud, se verán favorecidas por el uso del nuevo chip. Trillium permitirá a Google DeepMind entrenar y servir futuras generaciones de modelos Gemini de manera más rápida, eficiente y con menor latencia.

Además, los TPUs Trillium son fundamentales para la Supercomputadora de IA de Google Cloud, una arquitectura de supercomputación diseñada específicamente para cargas de trabajo de IA de vanguardia.

Gemini 1.5 Pro es el modelo de IA más grande y capaz de Google, y fue entrenado usando decenas de miles de aceleradores TPU.

Nuestro equipo está entusiasmado con el anuncio de la sexta generación de TPUs, y esperamos con ansias el aumento en rendimiento y eficiencia para el entrenamiento e inferencia a la escala de nuestros modelos Gemini.

Jeff Dean, científico en jefe de Google Deepmind y Google Research.

Vía google.com

Si te ha gustado este artículo, compártelo con tus amigos en las redes sociales ¡Gracias!

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba