El juicio entre Elon Musk, Sam Altman, Greg Brockman, OpenAI y Microsoft revela correos, mensajes y documentos internos que cuestionan la evolución de la compañía desde organización sin ánimo de lucro hasta gigante de la inteligencia artificial.
El juicio que expone las entrañas de OpenAI
El enfrentamiento judicial entre Elon Musk y Sam Altman se ha convertido en una de las grandes batallas tecnológicas y empresariales de 2026. El caso, que se juzga ante un tribunal federal en California, gira en torno a una pregunta de enorme calado: ¿traicionó OpenAI su misión fundacional al transformarse en una estructura con ánimo de lucro y aliarse con Microsoft?
Musk acusa a OpenAI, a su consejero delegado Sam Altman, al presidente de la compañía Greg Brockman y a Microsoft de haber desviado la empresa de su objetivo original: desarrollar una inteligencia artificial general que beneficiara a toda la humanidad. The Verge recoge que la demanda incluye alegaciones sobre incumplimiento de la misión fundacional, fraude, enriquecimiento injusto y ruptura de la confianza benéfica de OpenAI.
La causa ha empezado a sacar a la luz una montaña de pruebas: correos electrónicos desde 2015, mensajes privados, diarios personales, documentos fiscales, fotografías y papeles corporativos que permiten reconstruir los primeros años de OpenAI y las tensiones internas que marcaron su nacimiento.
OpenAI nació como una organización sin ánimo de lucro
Uno de los documentos clave es el acta de constitución de OpenAI, fechada en diciembre de 2015. En ella se definía a la compañía como una corporación sin ánimo de lucro organizada con fines caritativos y con el propósito de garantizar que la inteligencia artificial general beneficiara a toda la humanidad.
Ese punto es esencial para el caso de Musk. El empresario sostiene que puso dinero, influencia y credibilidad al servicio de un proyecto que debía actuar como contrapeso abierto y seguro frente a laboratorios privados como Google DeepMind. Según The Verge, Musk invirtió hasta 38 millones de dólares en la etapa inicial de OpenAI antes de abandonar el consejo en 2018.
La evolución posterior, con la creación de una estructura de beneficio limitado y la entrada decisiva de Microsoft, es lo que ha convertido aquella promesa original en el centro del litigio.
Los primeros correos: Altman propuso una IA “para empoderar al individuo”
Las pruebas reveladas muestran que, ya en junio de 2015, Sam Altman planteó a Musk un plan para crear un laboratorio de IA con la misión de desarrollar la primera inteligencia artificial general y utilizarla para el “empoderamiento individual”. En aquel intercambio, Altman defendía que la seguridad debía ser un requisito central desde el primer momento.
También propuso un sistema de gobernanza inicial con cinco figuras: Sam Altman, Elon Musk, Bill Gates, Pierre Omidyar y Dustin Moskovitz. La tecnología, según ese planteamiento inicial, estaría en manos de una fundación y se usaría para el bien del mundo.
La respuesta de Musk fue breve pero contundente: aceptó la propuesta. Ese correo se ha convertido en una pieza relevante porque muestra que ambos compartían inicialmente la idea de una estructura con vocación benéfica y de utilidad pública.
Musk quiso blindar la gobernanza desde el principio
Otro correo de octubre de 2015 muestra que Altman pidió a Musk un compromiso inicial de 100 millones de dólares y una posible donación adicional de 30 millones en los siguientes cinco años. En ese contexto, Musk respondió que había que hablar de gobernanza porque era un asunto “crítico”.
La frase resume una preocupación que atraviesa todo el caso: quién controlaría OpenAI si lograba desarrollar una tecnología capaz de cambiar el mundo.
Musk temía que una IA avanzada terminara en manos de una sola empresa, de un Gobierno o de un grupo reducido de directivos. Sin embargo, los correos posteriores muestran que otros fundadores también temían que el propio Musk acabara concentrando demasiado poder.
Brockman y Sutskever temían el control absoluto de Musk
Uno de los bloques más sensibles de las pruebas corresponde a 2017. En varios mensajes, Greg Brockman e Ilya Sutskever expresaron su preocupación por el nivel de control que Musk quería tener sobre la futura estructura de OpenAI.
Según las pruebas recopiladas, ambos aceptaban que Musk tuviera más implicación o más influencia si dedicaba más tiempo al proyecto, pero rechazaban una fórmula en la que conservara control absoluto sin una dedicación equivalente. La preocupación principal era clara: no querían que una sola persona pudiera dominar una eventual inteligencia artificial general.
En un intercambio especialmente duro, Brockman y Sutskever avisaron a Musk de que una estructura que le permitiera terminar con control unilateral de la AGI sería peligrosa. El contraste es llamativo: Musk denunciaba el riesgo de una “dictadura” de IA en manos de Google DeepMind, mientras sus propios socios temían que OpenAI acabara replicando ese problema bajo su mando.
Musk se hartó y amenazó con cortar la financiación
La tensión terminó estallando. En septiembre de 2017, Musk escribió a Brockman y Sutskever que ya había tenido suficiente y que no seguiría financiando OpenAI hasta que aclararan si iban a continuar en la organización sin ánimo de lucro o a crear otra empresa.
Ese episodio es clave porque muestra la fractura interna antes de la salida definitiva de Musk. El empresario consideraba que OpenAI no podía competir seriamente contra Google sin un cambio radical de escala, financiación y estructura. Para él, seguir funcionando como una organización benéfica podía condenar al proyecto a la irrelevancia.
Brockman, por su parte, defendía que OpenAI debía intentar conservar la autoridad moral de una entidad sin ánimo de lucro. La paradoja es evidente: quienes hoy dirigen OpenAI también debatieron internamente cómo pasar a una estructura capaz de atraer inversión privada.
El diario de Brockman, una prueba incómoda
El diario personal de Greg Brockman se ha convertido en una de las pruebas más delicadas del juicio. The Guardian ha informado de que los abogados de Musk han utilizado varias entradas para intentar presentar a Brockman como alguien interesado en el beneficio económico y no solo en la misión pública de OpenAI.
Una de las frases más citadas es: “Financially what will take me to $1B?”, una reflexión en la que Brockman se preguntaba qué le llevaría financieramente a los mil millones de dólares. The Guardian señala que OpenAI sostiene que esas entradas están sacadas de contexto y que Brockman ha defendido que eran textos personales, escritos como flujo de pensamiento y no pensados para hacerse públicos.
La defensa de OpenAI insiste en que Musk conocía los debates sobre una estructura con ánimo de lucro y que su demanda responde a que abandonó la compañía antes de su éxito comercial.
Microsoft entra en escena y dispara la polémica
La alianza con Microsoft es otro punto central. En 2020, Musk criticó públicamente que Microsoft obtuviera una licencia exclusiva sobre GPT-3, afirmando que aquello parecía “lo contrario de abierto” y que OpenAI estaba esencialmente capturada por Microsoft.
Altman respondió que OpenAI necesitaba miles de millones para competir con DeepMind y que Microsoft parecía la mejor vía para obtener ese capital con el menor compromiso posible. Ese intercambio resume el dilema estratégico: mantener la pureza original o aceptar capital masivo para sobrevivir en la carrera global de la IA.
Para Musk, el pacto con Microsoft confirmaría la traición a la misión original. Para OpenAI, fue una solución necesaria para financiar una tecnología extremadamente costosa.
Musk quería miles de millones y más control
El juicio también ha revelado testimonios explosivos sobre la relación entre Musk, OpenAI y sus planes empresariales. Reuters informó de que Brockman declaró que Musk apoyaba convertir OpenAI en una entidad con ánimo de lucro, pero quería el control total, en parte para poder captar 80 000 millones de dólares destinados a construir una ciudad autosuficiente en Marte.
Según ese testimonio, Musk habría defendido que necesitaba una participación mayoritaria por su experiencia empresarial y que él decidiría cuándo renunciar al control. Brockman también declaró que Musk se enfadó en una reunión de 2017 cuando se discutió una estructura accionarial que no le convencía.
OpenAI utiliza ese relato para sostener que Musk no demandó por altruismo, sino porque no consiguió dominar la compañía.
La defensa de Musk: una promesa rota
La posición de Musk es muy distinta. El fundador de Tesla y SpaceX sostiene que OpenAI nació como una organización abierta, segura y orientada al beneficio de la humanidad, pero acabó convertida en una máquina empresarial dominada por intereses privados.
Su argumento conecta con una preocupación real: la inteligencia artificial avanzada se está concentrando en muy pocas manos, con enormes cantidades de capital, infraestructuras opacas y acuerdos empresariales que escapan al control democrático.
Musk pide una reparación millonaria y medidas contra la actual dirección de OpenAI. Reuters señala que el empresario busca 150 000 millones de dólares en daños para la organización sin ánimo de lucro y la salida de Altman y Brockman de sus cargos.
OpenAI contraataca: Musk quería control y ahora compite con xAI
OpenAI niega las acusaciones y presenta a Musk como un antiguo cofundador resentido por haber abandonado el proyecto antes de que se convirtiera en uno de los actores más poderosos del mundo tecnológico.
La compañía también subraya que Musk dirige ahora xAI, un competidor directo de OpenAI, y que su demanda puede favorecer sus propios intereses empresariales. The Verge recuerda que Musk fundó xAI tras su salida de OpenAI y que esta compañía compite directamente en el mercado de inteligencia artificial.
Ese dato complica el relato de ambas partes. Musk denuncia la mercantilización de OpenAI, pero al mismo tiempo participa de lleno en la misma carrera comercial por dominar la IA.
La gran contradicción de Silicon Valley
El caso Musk contra Altman expone una contradicción profunda de Silicon Valley: muchas compañías nacen con discursos grandilocuentes sobre el bien común, la seguridad y el futuro de la humanidad, pero terminan dependiendo de capital privado, alianzas corporativas y luchas internas por el control.
OpenAI prometió una inteligencia artificial beneficiosa para todos. Hoy se sienta en un juicio donde se discute si esa promesa fue una misión real o una envoltura idealista para atraer talento, dinero y legitimidad.
El caso también deja una advertencia para gobiernos y ciudadanos: la inteligencia artificial general no puede quedar únicamente en manos de acuerdos privados entre multimillonarios, fondos, tecnológicas y consejos de administración.
Lo que está en juego va mucho más allá de Musk y Altman
El juicio no es solo una pelea de egos entre dos figuras poderosas. Es una batalla por el modelo de gobernanza de la inteligencia artificial más avanzada.
Si el jurado acepta la tesis de Musk, OpenAI podría enfrentarse a consecuencias enormes en su estructura, su relación con Microsoft y su capacidad para operar como empresa. Si OpenAI logra imponerse, quedará reforzada la idea de que una organización nacida como sin ánimo de lucro puede evolucionar hacia una estructura comercial siempre que mantenga una supervisión formal orientada a su misión.
En ambos casos, la imagen pública de OpenAI ya ha sufrido un golpe. Los correos, mensajes y diarios revelan una historia menos épica que la narrativa oficial: ambición, miedo a Google, disputas por equity, dudas éticas, tensiones personales y una carrera desesperada por no quedarse atrás.
Una pregunta incómoda para la era de la IA
El juicio deja una pregunta que no afecta solo a Estados Unidos. También importa a Europa, a España y a cualquier país que dependa de tecnologías desarrolladas por un puñado de gigantes extranjeros.
¿Quién debe controlar una inteligencia artificial capaz de transformar la economía, la educación, el trabajo, la seguridad y la política?
La respuesta no puede depender únicamente de Musk, Altman, Microsoft o cualquier otro actor privado. Si algo muestran las pruebas del juicio es que, cuando la tecnología se vuelve demasiado poderosa, las promesas fundacionales no bastan. Hacen falta reglas, transparencia y límites reales.
