Lo siento Elon, Grok no es IA de código abierto y este es el motivo según su creador

Lo siento Elon, Grok no es IA de código abierto y este es el motivo según su creador

Grok, el chatbot de inteligencia artificial (IA) de Elon Musk, no es tan de código abierto como asegura, ni tampoco lo son las muchas empresas que afirman serlo, según el guardián de la definición.

Fundada en 1998, la Open Source Initiative (OSI) es una organización sin ánimo de lucro que defiende el término "código abierto". Actualmente está trabajando en la actualización de su definición para incluir la Inteligencia Artificial de código abierto.

En general, código abierto significa que el código fuente del software está a disposición de todo el mundo en el dominio público para su uso, modificación y distribución.

La definición de la OSI establece que también debe cumplir 10 criterios, entre ellos disponer de un medio bien publicitado para obtener el código fuente a un coste razonable o gratuitamente, no ser discriminatorio y que la licencia no restrinja otro software. Pero los sistemas de inteligencia artificial son más difíciles de evaluar con respecto a los 10 puntos de la OSI.

Es un momento muy nuevo en la historia donde tenemos un nuevo artefacto que se debe todavía a la producción de ingenio humano, inteligencia y creatividad

"La definición de software de código abierto que hemos estado utilizando para el software no se aplica realmente a los sistemas de IA", dijo Stefano Maffulli, director ejecutivo de la OSI, a 'Euronews Next'.

Las empresas de IA que afirman ser de código abierto, como la última aventura de Musk, abren las fuentes -los parámetros numéricos que influyen en el rendimiento de un modelo de IA-, pero no los datos con los que se entrena ni el proceso de entrenamiento.

Según Maffulli, esto significa que no pueden ser de código abierto porque no son transparentes en cuanto a los datos utilizados para entrenar la ponderación, lo que puede causar problemas de derechos de autor y cuestiones éticas sobre si los datos están sesgados.

"Se trata de algo nuevo, y es un momento histórico muy novedoso en el que tenemos un nuevo artefacto que sigue siendo fruto del ingenio, la inteligencia y la creatividad humanas", explicó. "Pero al mismo tiempo es también la elaboración del cálculo semialeatorio que realizan los grandes ordenadores".

Búsqueda de la verdad

Musk afirmó anteriormente en un post en su plataforma de redes sociales X que su IA de código abierto es "con diferencia la más transparente y la que más busca la verdad", y demandó a OpenAI por abandonar su misión original de beneficiar a la humanidad al asociarse con Microsoft. Sin embargo, la Grok de Musk no revela con qué datos se entrenó.

De hecho, hay pocos incentivos para que las empresas lo hagan, porque en el momento en que anuncias sobre qué construyes tus datos es cuando te abres a demandas por derechos de autor.

Somos los administradores, los encargados de mantener la definición, pero en realidad no tenemos poderes para hacerla cumplir

"Hasta que no haya un poco de claridad jurídica, creo que seguiremos siendo testigos de este tipo de problemas", afirma Maffulli. Otra razón por la que las llamadas empresas de IA de código abierto pueden no querer ser totalmente transparentes es para preservar secretos comerciales.

La OSI tiene, por tanto, una difícil tarea entre manos cuando se trata de definir la IA de código abierto. La organización comenzó su búsqueda hace dos años, después de que ChatGPT, de OpenAI, saltara a escena en noviembre de 2022.

Según Maffulli, el mayor obstáculo a la hora de definir la IA de código abierto es comprender la dependencia entre los datos de los conjuntos de entrenamiento y las ponderaciones de los modelos.

Cómo definir la IA de código abierto

El OSI empezó reuniendo a un grupo de expertos iniciales procedentes de organizaciones como la Fundación Mozilla y Wikipedia, pero también con grupos de la sociedad civil, universidades y grandes empresas tecnológicas como Microsft y Meta.

A continuación, los grupos de trabajo evaluaron tres modelos de IA generativa: Llama de Meta, Illusion AI y Bloom, así como un modelo de IA no generativa que utiliza el aprendizaje automático.

Los grupos de trabajo votaron los requisitos mínimos para que un sistema de IA sea de código abierto. Según Maffulli, "todos los grupos de trabajo dijeron que, como mínimo, debe haber un requisito mínimo de transparencia de los datos".

El OSI está perfeccionando ahora este proyecto de definición, que espera hacer público a lo largo del verano. Pero esto no significa que, una vez finalizada la definición, la OSI vaya a perseguir a Musk o a otras empresas autoproclamadas de IA de código abierto.

"Somos los administradores, los encargados de mantener la definición, pero en realidad no tenemos poderes para hacerla cumplir", dijo Maffulli. Añadió que los jueces y tribunales de todo el mundo están empezando a reconocer que la definición de código abierto es importante, especialmente cuando se trata de fusiones, pero también de regulación.

Países de todo el mundo están ultimando cómo regularán la IA y el software de código abierto ha sido un tema de controversia. "La definición de código abierto sirve de barrera para identificar la publicidad engañosa", indica Maffulli.

"Si una empresa dice que es de código abierto, debe tener los valores que conlleva la definición de código abierto. De lo contrario, se presta a confusión", prosigue.