Por qué LLaMA no es realmente open source

Por qué LLaMA no es realmente open source

Cuando Meta presentó su familia de modelos LLaMA, muchos titulares los describieron como un ejemplo de inteligencia artificial “open source”. La propia empresa utilizó con frecuencia un lenguaje que evocaba los principios del software abierto: democratizar la inteligencia artificial, apoyar a la comunidad investigadora o facilitar el acceso a herramientas avanzadas.

Sin embargo, dentro de la comunidad técnica surgió rápidamente un debate.

¿Puede considerarse realmente open source un modelo como LLaMA?

La respuesta depende de cómo definamos exactamente qué significa “código abierto” en inteligencia artificial.

Qué significa realmente open source

En el mundo del software tradicional, el concepto open source tiene una definición relativamente clara. La Open Source Initiative (OSI), una organización que establece estándares para licencias de código abierto, considera que un software es open source cuando su código puede utilizarse, modificarse y redistribuirse libremente bajo ciertas condiciones.

En otras palabras, la apertura implica que el sistema puede estudiarse, modificarse y reutilizarse sin restricciones significativas.

Cuando trasladamos esta definición al ámbito de los modelos de inteligencia artificial, la situación se vuelve más compleja. Como vimos en los artículos anteriores, un modelo no está compuesto únicamente por código, sino también por pesos entrenados, datos de entrenamiento y procesos de entrenamiento.

Para que un modelo fuera completamente open source en sentido estricto, debería compartir al menos el código y permitir su uso libre, y en muchos casos también los pesos y los elementos necesarios para reproducir el sistema.

Aquí es donde aparece el problema con LLaMA.

Lo que Meta sí publica

Meta publica varios elementos importantes de sus modelos LLaMA.

Los pesos entrenados del modelo pueden descargarse, lo que permite ejecutar el sistema localmente o adaptarlo a tareas específicas. También se ha publicado el código de inferencia y herramientas necesarias para utilizar el modelo.

Esto ha permitido que miles de desarrolladores, investigadores y empresas experimenten con LLaMA, creando nuevas aplicaciones, versiones ajustadas del modelo y proyectos derivados.

En este sentido, LLaMA es claramente más abierto que los modelos completamente cerrados que solo pueden utilizarse a través de APIs.

Pero eso no significa que sea open source en sentido estricto.

Las restricciones de la licencia

El principal motivo es la licencia utilizada por Meta.

A diferencia de las licencias open source tradicionales (como MIT, Apache 2.0 o GPL) LLaMA utiliza una licencia personalizada que impone ciertas restricciones al uso del modelo.

Aunque permite el uso comercial en muchos casos, también establece limitaciones específicas. Por ejemplo, algunas versiones de la licencia incluyen condiciones que restringen el uso por parte de determinadas empresas o proyectos que compitan directamente con Meta en el desarrollo de inteligencia artificial.

Estas restricciones hacen que la licencia no cumpla los criterios establecidos por la Open Source Initiative para considerarse verdaderamente open source.

Por esta razón, muchos especialistas prefieren describir LLaMA como un modelo de pesos abiertos (open weights), en lugar de un modelo open source.

Falta de datos de entrenamiento

Otro elemento que limita la apertura de LLaMA es la ausencia de los datos utilizados durante el entrenamiento.

Meta ha publicado descripciones generales de los datasets utilizados, pero no ha compartido los datos completos ni el proceso detallado de entrenamiento.

Esto significa que, aunque el modelo pueda descargarse y utilizarse, resulta muy difícil reproducir el proceso que llevó a su creación o auditar completamente los datos con los que fue entrenado.

Desde el punto de vista científico, esta falta de transparencia limita la capacidad de los investigadores para comprender completamente cómo se ha construido el sistema.

Un modelo parcialmente abierto

Todo esto no significa que LLaMA sea un modelo cerrado.

De hecho, su publicación ha tenido un impacto enorme en el ecosistema de la inteligencia artificial. El acceso a los pesos ha permitido que investigadores, startups y comunidades de desarrolladores experimenten con modelos avanzados sin depender exclusivamente de proveedores comerciales.

Muchos proyectos derivados, como versiones optimizadas o modelos especializados, han surgido precisamente a partir de LLaMA.

Sin embargo, su grado de apertura sigue siendo parcial.

El modelo se sitúa en una posición intermedia dentro del espectro que vimos en artículos anteriores: más abierto que los sistemas completamente cerrados, pero lejos de cumplir los criterios de apertura total que tradicionalmente se asocian con el software open source.

El lenguaje de la industria

El caso de LLaMA ilustra también un fenómeno cada vez más común en la industria tecnológica.

Las empresas utilizan con frecuencia términos asociados al software abierto (como open source, abierto o comunitario) para describir modelos que en realidad tienen limitaciones importantes.

Esto no es necesariamente engañoso, pero sí puede generar confusión.

Para comprender realmente qué tan abierto es un modelo de inteligencia artificial, no basta con leer el titular del lanzamiento. Es necesario analizar con detalle qué partes del sistema se han publicado, qué licencias se aplican y qué restricciones existen sobre su uso.

En el próximo artículo analizaremos precisamente ese aspecto: las licencias que regulan el uso de los modelos de inteligencia artificial y cómo estas determinan lo que realmente podemos hacer con ellos.