Meta anuncia cuándo presentará Llama 3, su IA de nueva generación
Meta ha anunciado que planea lanzar su nuevo modelo de lenguaje grande (LLM) llamado Llama 3 en mayo de 2024. En un evento celebrado en Londres, Nick Clegg, presidente de asuntos globales de la compañía, confirmó que varios modelos de Llama 3 con distintas características debutarán a lo largo del año.
Características y propósito de Llama 3
Los detalles técnicos de Llama 3, como la cantidad de parámetros y cómo competirá con GPT-4 y otros modelos de lenguaje, aún se desconocen. Joelle Pineau, vicepresidenta de investigación de inteligencia artificial en Meta, expresó que el objetivo a largo plazo de la empresa es que Meta AI se convierta en el asistente inteligente más útil del mundo mediante el uso de Llama.
A pesar de que las versiones anteriores de Llama utilizaban código abierto, Meta no reveló si Llama 3 seguirá siendo de código abierto. En una entrevista con The Verge, Mark Zuckerberg destacó la importancia de las licencias de código abierto para democratizar la inteligencia artificial.
Meta y su enfoque en la inteligencia artificial
Mark Zuckerberg anunció meses atrás que el objetivo a largo plazo de Meta es desarrollar una inteligencia artificial general. Para lograrlo, la compañía ha realizado inversiones multimillonarias en chips de NVIDIA, con planes de adquirir 340.000 GPU H100 para finales de 2024.
«Hemos llegado a la conclusión de que, para construir los productos que queremos, necesitamos construir para la inteligencia artificial general. Creo que es importante transmitirlo porque muchos de los mejores investigadores quieren trabajar en problemas más ambiciosos.»
Mark Zuckerberg, CEO de Meta.
Actualmente, Meta ofrece varios modelos de código abierto a los desarrolladores, como el Code Llama 70B, un LLM de 70.000 millones de parámetros enfocado en la programación. Según las pruebas de HumanEval, Code Llama 70B supera a GPT-4 por un pequeño margen.
La competencia de Llama 3 en el mercado
Con Llama 3, Meta busca posicionarse como un competidor relevante frente a los modelos de OpenAI y Google. «Con Llama 3, nuestra ambición es construir cosas que estén a la vanguardia y, eventualmente, los modelos líderes en la industria», afirmó Zuckerberg en una entrevista. Aún se desconoce si Meta optará por un modelo multimodal, capaz de procesar texto, imágenes, sonido y video.
En el evento de Londres, Meta reconoció la dificultad de generar imágenes, algo crucial en el desarrollo de un asistente inteligente. Chris Cox, director de productos de la empresa, enfatizó la importancia de la latencia, la seguridad y la facilidad de uso en este proceso.