OpenAI es mucho más que la startup que trajo al mundo ChatGPT y desencadenó la fiebre actual por la inteligencia artificial. Lo que no todo el mundo sabe es que se fundó con una misión mucho más grande e importante que eso, y de la que parece haberse alejado radicalmente.
En 2015, un grupo de personas (entre ellas, Sam Altman y Elon Musk) se dieron cuenta de que la AGI (la Inteligencia artificial más avanzada) era algo posible de alcanzar, así que preocupados por el poder que estaba acumulando Google en torno a ella, decidieron unirse y proteger al mundo de los posibles efectos.
Para ello, trataron de reunir al mejor talento, aportaron capital, ideales y crearon un laboratorio sin ánimo de lucro, sin darse cuenta aún de que lo que tenían entre manos era algo tan grande que mantener esa integridad podía salirles carísimo.
Esta semana Sam Altman y Elon Musk, se han visto las caras en los tribunales. Musk acusa a OpenAI de haberse alejado de la idea con la que se fundó: una organización abierta, sin ánimo de lucro y creada para proteger a la humanidad. OpenAI defiende que tuvo que cambiar para poder competir y seguir avanzando en sus investigaciones.
A primera vista puede parecer una simple pelea comercial y estratégica de dos personajes conocidos por su ambición y por sus rifirrafes personales, pero creo que esta historia tiene un trasfondo tan interesante, que merece la pena un análisis más completo para comprenderla por completo.
Antes de OpenAI: el miedo a que la AGI naciera dentro de Google
En 2014, Google compra DeepMind. La operación fue importante por su dimensión y por el prestigio del laboratorio pero, sobre todo, por lo que simbolizaba: la inteligencia artificial avanzada estaba dejando de ser una promesa dentro de las universidades y pequeños equipos de científicos y comenzaba a ser algo estratégico para las empresas más poderosas del planeta.
En la demanda que Musk presentaría años después, el origen del OpenAI aparece como una reacción a la posibilidad de que Google y DeepMind monopolizaran el rumbo de la AGI. La idea no era sólo competir con un rival tecnológico sino evitar que una tecnología potencialmente tan peligrosa estuviera en manos de una sola empresa con fuertes intereses comerciales.
El planteamiento era que si la AGI era posible, había que crear una institución capaz de adelantarse a su concentración y crear un laboratorio con una forma jurídica que funcionara como salvaguarda.
La filosofía fundacional: seguridad, distribución del poder y prevención
OpenAI no era sólo una apuesta por investigar sino por hacerlo de una forma muy concreta. Desde el principio, se presentó como una institución que debía priorizar “un buen resultado para todos” por encima del interés propio. La base de ese planteamiento era que si algún día se alcanzaban sistemas “de nivel humano” o superior, importaba muchísimo quién los construía, pero también con qué incentivos y bajo qué límites se hacía.
Por eso el concepto de AI safety era vital. En inteligencia artificial, la seguridad en IA no significaba sólo evitar fallos técnicos, sino impedir usos maliciosos, acumulaciones excesivas de poder y actores privados capaces de desplegar sistemas sin suficientes salvaguardas. En ese sentido, el proyecto suponía algo casi preventivo: crear un laboratorio alternativo era una forma de influir en las reglas del juego antes de que la AGI, naciera bajo los intereses comerciales y estratégicos de una empresa como Google.
Esta filosofía fundacional es importante porque convierte la futura ruptura en algo más profundo que una discusión societaria. Cuando años después Musk acusó a OpenAI de desviarse y buscar el beneficio comercial, no estaba diciendo sólo que la organización hubiera cambiado de estructura, sino sugiriendo algo mucho más grave: que había renunciado a la idea misma que justificaba su existencia.
Los fundadores: quiénes eran y qué aportaba cada uno
Para que esa idea en la cabeza de todos pudiera convertirse en una organización hacía falta una combinación rara de dinero, prestigio científico y capacidad de ejecución por parte de un equipo completo.

Sam Altman aportaba visión estratégica, legitimidad en Silicon Valley y una red de relaciones incomparable (en 2015 ya era presidente de Y Combinator), y entendía como pocos cómo convertir una instiuición tecnológica en una organización capaz de atraer talento y capital.
Elon Musk aportaba escala, dinero y visibilidad. Ya era entonces una figura central del mundo de la tecnología con Tesla y SpaceX y su presencia ya convertía el proyecto en algo inmediatamente importante y serio.
Greg Brockman era la pieza organizativa que necesitaban. Venía de Stripe, donde había ayudado a escalar la compañía de cuatro a unos 250 empleados, y se dice que fue el fundador que trabajó a tiempo completo para diseñar lo que después sería OpenAI y su estructura.
Ilya Sutskever había pasado por el laboratorio de Geoffrey Hinton, por Stanford con Andrew Ng y por Google Brain, y era, por tanto, uno de los investigadores más deseados, lo que convertía a OpenAI en un laboratorio con capacidad de competir científicamente con los mejores.
Junto a ellos apareció un núcleo técnico excepcional: John Schulman venía de Berkeley y del trabajar en robótica y aprendizaje por refuerzo con Pieter Abbeel. Wojciech Zaremba estaba formándose en deep learning en NYU. Andrej Karpathy acababa de hacer en Stanford un doctorado centrado en redes neuronales para visión por computador, lenguaje natural y la intersección entre ambos. Durk Kingma ya era conocido por contribuciones fundamentales como los variational autoencoders y Adam. Trevor Blackwell era cofundador de Y Combinator y un ingeniero con larga experiencia en robótica. Vicki Cheung y Pamela Vagata representaban la parte menos visible pero más decisiva: la infraestructura y la ingeniería necesarias para que un laboratorio de no fuese únicamente una buena idea sobre el papel, sino que, además, fuera operativo.
La cena, la decisión y la promesa original
Greg Brockman contó años después que una de las escenas decisivas ocurrió en una cena en Menlo Park. Allí, Sam Altman, Elon Musk, Ilya Sutskever y otros investigadores, discutieron qué tipo de organización podían crear para que la IA resultara beneficiosa. La conclusión fue que tenía que ser una institución nonprofit (sin incentivos económicos) que no pusieran en riesgo su misión, pero al mismo tiempo lo bastante ambiciosa como para estar a la altura de las empresas a las que querían quitar el poder.
Cuando OpenAI se presentó públicamente en diciembre de 2015, esa idea quedó definida como una entidad sin ánimo de lucro orientada a beneficiar a la humanidad en su conjunto, no a sus accionistas. También prometió fomentar la publicación de papers, entradas de blog y código, y compartir las patentes que llegara a producir. La apertura no era un detalle más, sino parte del pacto fundador: el conocimiento debía compartirse porque precisamente el laboratorio se había creado para evitar la concentración del poder tecnológico.
Además, OpenAI nació con una ambición económica muy superior a la de un think tank. Sam Altman, Elon Musk, Greg Brockman, Reid Hoffman, Jessica Livingston, Peter Thiel, AWS, Infosys y YC Research aportaron en conjunto 1.000 millones de dólares.
La tensión técnica real: apertura frente a seguridad
Sin embargo, la promesa original llevaba incorporada una contradicción: OpenAI había nacido con vocación de apertura, pero también con la convicción de que la IA avanzada podía generar riesgos serios si se desplegaba o difundía sin control, y cuánto más potentes se volvían los modelos, más peligroso podría ser ponerlos al alcance de cualquiera.
La prueba más clara llegó en 2019 con GPT-2. OpenAI decidió no liberar de inmediato el modelo completo y habló de “staged release” (publicación escalonada), una publicación escalonada pensada para dar tiempo a evaluar riesgos y debatir implicaciones sociales. La organización alegó preocupación por aplicaciones maliciosas: desinformación, suplantación, spam, phishing y automatización de contenido engañoso. Era, en sus propias palabras, un experimento de “responsible disclosure” (divulgación responsable).
Primer dilema: abrir el conocimiento acelera la investigación, reparte capacidades entre empresas y evita monopolios, pero cerrar o retrasar ciertas publicaciones puede reducir riesgos y ganar tiempo para aprender a defenderse de ellos. En ese momento la idea de “open” que llevaba escrita en su nombre, empezó a mostrar sus primeras grietas.
El verdadero enemigo: la escala
Si la tensión entre apertura y seguridad era el primer problema, el segundo era algo todavía más importante: escalar. A medida que OpenAI avanzaba tecnológicamente, descubría que para competir no bastaba reunir investigadores brillantes y publicar buenas ideas. Hacía falta disponer potencia de cálculo, atraer a talento extremadamente caro y financiar experimentos que empezaban tener dimensiones que superaban las de un “pequeño laboratorio”.
La propia OpenAI lo reconocería después: para seguir en la carrera necesitaría invertir miles de millones de dólares en cloud computing a gran escala, supercomputadores y captación de personal. Si su rival (Google) disponía de una infraestructura descomunal, OpenAI no podía competir “sólo con principios”. Necesitaba músculo en términos de computación, y ese músculo tenía un precio.
En ese momento empezó a hacerse visible el drama. El laboratorio que había nacido para evitar la captura corporativa de la AGI estaba descubriendo que la AGI, o al menos su persecución seria, exigía recursos de una gran corporación. Pero ¿cómo financiar una misión altruista cuando la frontera tecnológica requiere centros de datos, miles de GPUs y alianzas industriales?
Elon Musk, Tesla y la pelea por el poder
Musk entendió con claridad que, para plantar cara a Google y DeepMind, hacían falta muchos recursos. OpenAI publicó en 2024 correos y una narración según la cual, a finales de 2017, Musk aceptaba la necesidad de una estructura con mayor capacidad de captar capital, pero quería que esa transformación ocurriera bajo condiciones muy concretas: que el dinero no viniera de fuera, sino desde dentro.
Lo que a menudo se presenta como una ambición de control puede interpretarse también como una forma de evitar que el proyecto dependiera de capital externo. Es decir, Elon no dijo “quiero esto“. Elon dijo “yo pongo el dinero y así no viene de fuentes externas” y a cambio, lógicamente pedía algo.
La propuesta no salió adelante, así que Musk propuso otra solución: integrar el proyecto en Tesla. En los materiales difundidos por la empresa aparece la idea de que OpenAI debería apoyarse en Tesla como “cash cow” (generador de capital). Nadie dudaba de que se necesitaba el dinero, lo que trató fue de impedir que llegara de fuentes externas y los inversores los alejaran de su misión principal.
La pelea entre Musk y OpenAI era entre dos soluciones a un mismo problema. OpenAI, y en especial, Sam Altman se negó a ceder el puesto de CEO y a que el laboratorio se integrara en Tesla.
La salida de Musk, de Ilya Sutskever y las primeras grietas internas
En febrero de 2018, OpenAI anunció que Musk abandonaba el consejo para evitar un posible conflicto de interés con Tesla, cada vez más involucrada en el campo de la inteligencia artificial. El comunicado decía que seguiría donando y asesorando al laboratorio.
La realidad detrás de ese comunicado era algo menos bonita. Musk quería tomar las riendas para acelerar y competir con Google, pero Greg Brockman y otros fundadores se opusieron al movimiento, por lo que la salida de Musk no fue simplemente una incompatibilidad entre cargos, sino el primer gran choque entre la misión original y la necesidad de obtener fondos para poder escalar.
La crisis interna fue evidente cuando algunos de sus fundadores, estando de acuerdo con que hacían falta miles de millones y una estructura mucho más fuerte para poder competir, no eran capaces de decidir quién debía controlar esa transformación. Musk parecía aceptar poner dinero pero a cambio de integrarlo en Tesla, mientras que Sam Altman prefería mantener separada la institución, aunque eso implicara abrir la puerta a capital y alianzas externas, y seguir así, como CEO de la tecnológica.
Los problemas no terminaron con la marcha de Elon Musk. Los fundadores de Anthropic (Dario y Daniela Amodei, antiguos ejecutivos de OpenAI hasta 2020) se habían ido precisamente por “desacuerdos sobre cómo garantizar el desarrollo seguro y la gobernanza de la inteligencia artificial“, lo que reveló que no solo había diferencias estratégicas, sino una total divergencia sobre qué significa desarrollar IA de forma responsable y quién debe establecer los límites.
Eso convirtió a Anthropic en algo más que una empresa rival. En cierto modo, su propia existencia funciona como una prueba de que dentro del ecosistema de OpenAI no todos compartían la misma respuesta al dilema central del laboratorio.
La marcha de Ilya Sutskever en 2024 añadió una capa más a esa sensación de inestabilidad. Ilya había sido cofundador, chief scientist y una de las figuras científicas decisivas de OpenAI desde el principio. Además Ilya Sutskever había desempeñado un papel protagonista en la destitución y posterior restitución de Sam Altman en noviembre de 2023 (podéis leer esa historia aquí). Su salida reforzó la idea de que la forma de pensar de Altman no parecía la correcta a ojos de los demás.
OpenAI LP: la ingeniería del compromiso
En marzo de 2019 llegó un intento de resolver la contradicción sin posicionarse en ninguno de los extremos: la creación de OpenAI LP. La organización la presentó como una entidad “capped-profit”, una fórmula a medio camino entre nonprofit y for-profit, diseñada para atraer capital y talento sin abandonar por completo la misión fundacional. En teoría, era la manera de seguir siendo OpenAI pero no actuar como un laboratorio sin ánimo de lucro.
La lógica era la siguiente: empleados e inversores podrían obtener beneficios si el proyecto tenía éxito, pero esos beneficios estarían limitados por un tope. Cualquier valor por encima de ese umbral quedaría en manos de la organización nonprofit original. Además, OpenAI insistía en que el control último seguiría residiendo en esa nonprofit. En otras palabras, la misión continuaría siendo soberana, mientras el vehículo económico se volvía más apto para competir por capital y talento.
Esta salida era, al mismo tiempo, brillante y precaria. Brillante porque trataba de resolver el dilema moral (cómo captar dinero sin rendirse por completo al dinero) y precaria porque, en la práctica, estaba cambiando el formato original. Por mucho que OpenAI no se fuera al otro extremo, dejaba su formato original de 2015. Seguía afirmando que la misión mandaba, pero abría la puerta al capital externo, en contra de su propia esencia.
Microsoft: no sólo inversor, sino infraestructura y alineación estratégica
Pocos meses después, en julio de 2019, Microsoft anunció una inversión de 1.000 millones de dólares en OpenAI. No era una simple ronda de financiación, sino que ambas partes formaban una asociación plurianual para desarrollar tecnologías de supercomputación de IA sobre Azure (la red de centros de datos de Microsoft que les aportaba la potencia de cálculo). OpenAI movería muchos de sus servicios a esa nube y Microsoft sería su socio “preferido” para comercializar nuevos servicios.
Microsoft no fue sólo quien puso dinero para que OpenAI siguiera viva, sino también quien aportó infraestructura, capacidad de cómputo y una ruta de industrialización. La dependencia ya no era únicamente financiera, sino operativa. OpenAI necesitaba escalar, y Azure se convertía en una parte esencial de esa escala. Aquí es donde la tesis de Musk comienza a cobrar fuerza: el laboratorio que había nacido para evitar la concentración del poder tecnológico empezaba a vincular su destino al de una de las mayores empresas del mundo. Pretendían quitar el poder a Google y se lo daban a Microsoft.
No se trataba sólo de que OpenAI hubiera “pasado a ganar dinero”, sino de que se había alineado estratégicamente con una gran corporación cuyo peso económico, técnico y comercial reconfiguraba de raíz la vieja promesa de independencia. Desde la perspectiva de OpenAI, aquello era el precio de la supervivencia. Desde la de Musk, sería la prueba de la desviación absoluta de los modtivos que llevaron a su creación.
De la promesa de apertura al poder de ChatGPT
La llegada de ChatGPT a finales de 2022 convirtió a OpenAI en el centro mundial (al menos el más visible) de la nueva era de la IA generativa. De repente, el laboratorio que se había concebido como contrapeso a Google parecía ir por delante de casi todos, había ganado relevancia científica, cultural e incluso geopolítica.
A la vez, la empresa que en 2015 prometía publicar papers, código y compartir patentes se había convertido en una organización que cerraba sus modelos más poderosos. Algo de eso se podía justificar aludiendo a la seguridad y del uso responsable, pero saltaba a la vista que respondía también a la lógica competitiva de un mercado en el que los modelos de frontera eran totalmente estratégicos.
Fue en ese punto cuando Musk regresó como crítico y en 2023 denunció que OpenAI, creada como una entidad open source y nonprofit para servir de contrapeso a Google, se había convertido en una organización cerrada y orientada al máximo beneficio, controlada de facto por Microsoft.
El juicio: qué está realmente en juego
Cuando Musk demandó a OpenAI, Sam Altman y Greg Brockman en marzo de 2024, lo que llevó ante el tribunal fue algo más que una pelea accionarial. Su acusación, en esencia, se apoyaba en tres ideas: que OpenAI había nacido como una organización nonprofit y abierta, que esa misión original fue la base de su participación y apoyo, y que la compañía se había desviado de ese compromiso al convertirse en una estructura cerrada, comercial y totalmente hermanada con Microsoft.
La respuesta de OpenAI fue publicar una página específica con correos y su propia secuencia de hechos: Musk, dijo, sabía perfectamente que el nonprofit puro no bastaba para competir, había defendido la necesidad de recaudar miles de millones y quiso controlar la transición o acercarla a Tesla por lo que, al no lograrlo, acabó saliendo del proyecto. Desde esa perspectiva, el cambio estructural no fue una traición improvisada, sino una evolución necesaria que Musk conocía y en parte compartía mientras siguió dentro. Pero Musk no niega que se necesitaran fondos, sino el alejamiento extremo de la promesa fundacional. Por eso el juicio se centra en si el paso hacia una forma más comercial fue una adaptación inevitable o una renuncia a la esencia original. OpenAI sostiene que era la única forma de sobrevivir. Musk sostiene que sobrevivir así equivalía a dejar de ser aquello que decía ser.
¿Qué ha pasado en el juicio?
Los últimos días de abril de 2026, ha tenido lugar de la declaración de Musk. Su testimonio se prolongó durante más de siete horas repartidas en tres días. Voy a intentar resumir lo más importante.
La tesis de Musk
La tesis de Musk, tal como la ha planteado ante el tribunal, es bastante nítida: OpenAI nació como una organización sin ánimo de lucro concebida para desarrollar inteligencia artificial en beneficio de la humanidad, no para enriquecer a directivos, inversores o grandes socios corporativos. Musk ha presentado el proyecto casi como una institución benéfica tecnológica: una alternativa a Google y a la concentración de poder en torno a la AGI, levantada con una misión moral y con una promesa explícita de servicio público. Además, sostiene que su papel fue decisivo en la fundación: la idea, el nombre, el reclutamiento de personas clave, la financiación inicial y buena parte de la legitimidad del proyecto.
Su acusación central es que OpenAI fue desviada de esa misión y convertida en una estructura privada de enorme valor económico, y lo resume así: “no hay nada malo en crear una empresa con ánimo de lucro, pero no se puede transformar una organización nacida para otro fin en una máquina de valor privado“.
La tesis de OpenAI
OpenAI sostiene que Musk no fue engañado por una transformación imprevista, sino alguien que conocía desde dentro el problema central del laboratorio: que el nonprofit puro no bastaba para competir en la carrera real de la inteligencia artificial y que hacían falta nuevas estructuras, más capital y más escala.
Para ellos, el conflicto no surgió porque OpenAI cambiara sin avisar, sino porque Musk quiso controlar esa transformación y no lo consiguió. Por eso sus abogados han insistido en que Musk quería “las llaves del reino”, que estuvo implicado en conversaciones sobre el paso a una estructura con ánimo de lucro y que hoy protesta desde fuera, cuando ya es un competidor. Afirman que OpenAI no traicionó una misión por codicia, sino que adaptó dolorosamente su estructura para sobrevivir.
No es fácil tener una opinión sobre el tema, y menos desde fuera. Pero me da la impresión que el argumento de OpenAI se basa en poner a Elon Musk como una persona que busca control y “manejar los hilos”, es simplificar mucho.
Creo que es de esperar que aportando el capital como solución a que no entraran inversores que pudieran desviarlos de la misión principal, Musk quisiera dirigir u obtener algo a cambio. Es decir, me parece una postura lógica dentro de una empresa difícil ya de por sí.
Por otro lado nadie duda que entrenar modelos punteros exige miles de GPUs, centros de datos y una inversión que ningún laboratorio nonprofit puede sostener por sí solo. Desde ese punto de vista, el paso hacia una estructura más comercial parece lógico, incluso inevitable.
Pero el argumento de Musk apunta a algo distinto. No cuestiona que hiciera falta dinero, sino cómo se consiguió y qué se perdió por el camino. Su crítica no es tanto económica como conceptual: que una organización creada para limitar la concentración de poder haya terminado dependiendo de una de las mayores corporaciones del mundo es ir contra tus principios.
La personalidad de Sam Altman, sus desavenvencias con el equipo (podéis leer aquí la historia) hacen pensar que renunciar al poder no era una opción para él y que abriendo la puerta a capital como el de Miscrosoft, lo mantenía a salvo.
En cualquier caso, el tribunal tendrá que decidir después de escuchar más testimonios, y aclarar si OpenAI encontró la única forma posible de sobrevivir en una industria, o si, al hacerlo, cruzó una línea que la aleja definitivamente de la idea que justificó su creación y que lleva impresa en su propio nombre.

