Anuncios

Google publica modelos de inteligencia artificial "abiertos", al igual que Meta

FOTO DE ARCHIVO: Una mujer frente a un logotipo de Google durante la inauguración de un nuevo centro en Francia dedicado al sector de la inteligencia artificial (IA), en la sede de Google Francia en París

SAN FRANCISCO, 21 feb (Reuters) - Google presentó el miércoles nuevos modelos de inteligencia artificial (IA) que los desarrolladores externos pueden hacer suyos, tras iniciativas similares de Meta Platforms y otras empresas.

La filial de Alphabet ha declarado que particulares y empresas pueden crear gratuitamente software de IA basado en su nueva familia de "modelos abiertos", denominada Gemma. La empresa pone a disposición del público datos técnicos clave, como los denominados pesos de los modelos.

La medida puede atraer a los ingenieros de software a desarrollar la tecnología de Google y fomentar el uso de su nueva y rentable división en la nube. Los modelos están "optimizados" para Google Cloud, donde los clientes que los utilicen por primera vez obtendrán 300 dólares en créditos, según la empresa.

Google no ha llegado a convertir Gemma en un producto de "código abierto", lo que significa que la empresa aún puede intervenir en el establecimiento de las condiciones de uso y propiedad. Algunos expertos han afirmado que la IA de código abierto se presta a abusos, mientras que otros han defendido este enfoque para ampliar el conjunto de personas que pueden contribuir a la tecnología y beneficiarse de ella.

Con el anuncio, Google no ha hecho abiertos sus modelos de mayor tamaño, conocidos como Gemini, a diferencia de Gemma. Los modelos Gemma tienen un tamaño de entre 2.000 millones o 7.000 millones de parámetros, es decir, el número de valores diferentes que un algoritmo tiene en cuenta para generar resultados.

Los modelos Llama 2 de Meta tienen un tamaño de entre 7.000 millones y 70.000 millones de parámetros. Google no ha revelado el tamaño de sus modelos Gemini más grandes. En comparación, el modelo GPT-3 de OpenAI anunciado en 2020 tenía 175.000 millones de parámetros.

(Reporte de Jeffrey Dastin y Stephen Nellis; contribución de Krystal Hu, Katie Paul y Max Cherney; edición en español de Javier López de Lérida)