Meta publica las primeras versiones de su modelo de IA, Llama 3

FOTO DE ARCHIVO. El presidente ejecutivo de Meta, Mark Zuckerberg, pronuncia un discurso, mientras las letras AI para inteligencia artificial aparecen en la pantalla, en el evento Meta Connect en la sede de la compañía en Menlo Park, California, EEUU

NUEVA YORK, 18 abr (Reuters) - Meta Platforms presentó el jueves las primeras versiones de su último gran modelo lingüístico, Llama 3, y de un generador de imágenes que actualiza las imágenes en tiempo real mientras el usuario teclea, en su carrera por alcanzar al líder del mercado de IA generativa, OpenAI.

Los modelos se integrarán en el asistente virtual Meta AI, que la empresa presenta como el más sofisticado de sus homólogos gratuitos. El asistente ocupará un lugar más destacado en las aplicaciones de Meta para Facebook, Instagram, WhatsApp y Messenger, así como en un nuevo sitio web independiente que le permitirá competir más directamente con ChatGPT, el gran éxito de OpenAI respaldado por Microsoft.

El anuncio se produce en un momento en el que Meta se esfuerza por ofrecer productos de IA generativa a sus miles de millones de usuarios para desafiar la posición de liderazgo de OpenAI en esta tecnología, lo que implica una revisión de la infraestructura informática y la consolidación de equipos de investigación y productos anteriormente distintos.

El gigante de las redes sociales ha dotado a Llama 3 de nuevas capacidades de codificación informática y esta vez le ha proporcionado imágenes además de texto, aunque por ahora el modelo sólo producirá texto, dijo en una entrevista Chris Cox, director de Producto de Meta.

Añadió que en versiones posteriores se irán introduciendo razonamientos más avanzados, como la capacidad de elaborar planes más largos de varios pasos. Las versiones previstas para los próximos meses también serán capaces de "multimodalidad", es decir, podrán generar tanto texto como imágenes, explica Meta en un blog.

"En última instancia, el objetivo es facilitarte la vida, ya sea interactuando con empresas, escribiendo algo o planificando un viaje", explicó Cox.

Cox señaló que la inclusión de imágenes en el entrenamiento de Llama 3 mejoraría una actualización que se lanzará este año para las gafas inteligentes Ray-Ban Meta, una asociación con el fabricante de gafas Essilor Luxoticca, que permite a Meta AI identificar objetos vistos por el usuario y responder a preguntas sobre ellos.

Meta también anunció una nueva asociación con Google, de Alphabet, para incluir resultados de búsqueda en tiempo real en las respuestas del asistente, complementando así un acuerdo ya existente con Bing, de Microsoft.

Con esta actualización, el asistente Meta AI se expande a más de una docena de mercados fuera de Estados Unidos, como Australia, Canadá, Singapur, Nigeria y Pakistán. Meta está "trabajando todavía en la forma correcta de hacerlo en Europa", dijo Cox, donde las normas de privacidad son más estrictas y la próxima Ley de IA está a punto de imponer requisitos como la divulgación de los datos de entrenamiento de los modelos.

(Reporte de Katie Paul; Editado en español por Héctor Espinoza)