Meta lanzó Llama 4, su última versión del sistema de IA multimodal

hace 20 horas 1

CIUDAD DE MÉXICO (apro).- Este sábado 5 de abril, Meta Platforms lanzó la última versión de su modelo de lenguaje de gran tamaño (LLM), denominado Llama 4 Scout y Llama 4 Maverick.

De acuerdo con Meta, Llama es un sistema de IA multimodal, lo que significa que es capaz de procesar e integrar varios tipos de datos, como texto, video, imágenes y audio. 

Meta afirmó que lad sus “modelos más avanzados hasta la fecha” y “los mejores de su clase en multimodalidad”. 

También dio a conocer que Llama 4 Scout y Llama 4 Maverick serán bundle de código abierto, accesibles para su descarga a través de llama.com y que se podrán utilizar en WhatsApp, Messenger, Instagram Direct y en el sitio web Meta.AI.

Las grandes empresas tecnológicas han invertido en infraestructuras de inteligencia artificial (IA) tras el éxito de ChatGPT de OpenAI, en una competencia que nary es solo comercial, sino que tiene implicaciones geopolíticas y sociales, con los numerosos usos de la tecnología.

En el comunicado, Meta también lanzo una previsualización de Llama 4 Behemoth, que afirmó, “es uno de los LLM más inteligentes del mundo y nuestro desarrollo más potente hasta ahora, para servir como maestro para nuestros nuevos modelos”. De acuerdo con la empresa supera a GPT-4.5, Claude Sonnet 3.7 y Gemini 2.0. 

Meta planea gastar hasta 65 mil millones de dólares este año para ampliar su infraestructura de IA, informó Reuters. De acuerdo con un reporte de Grandview Research, el mercado planetary de la IA generativa alcanzará 1.8 billones de dólares para 2030. 

Las innovaciones de los gigantes tecnológicos impulsan la adopción de la IA en el assemblage automotriz, de la salud, y financiero, entre otros. El dominio de la IA, que se disputa entre compañías con sede en Estados Unidos como Open AI, Meta y X, así como la empresa china DeepSeek, será relevante para el liderazgo en la economía y la manipulación de información a grandes escalas, de acuerdo con expertos.

Leer el artículo completo