Jensen Huang sube al escenario de la GPU Technology Conference con su chaqueta de cuero negra, la misma que ha utilizado durante años en cada presentación y que, cuenta la leyenda, fue elegida por su mujer y su hija.
Miles de desarrolladores y ejecutivos esperan en el auditorio el anuncio de sus últimos chips y avances en el mundo de la inteligencia artificial. Jensen Huang hoy es casi una celebrity en el mundo tecnológico y el CEO de una empresa valorada en más de dos trillones de dólares, pero pocos saben que hace 30 años, este hombre estaba sentado en un Denny’s barato de San José en California, apostando por una idea que casi destruye su empresa: diseñar un chip con la tecnología equivocada en el momento equivocado.

El caos de los gráficos 3D
A mediados de los años noventa, el mercado de gráficos 3D para ordenadores era bastante caótico. Había más de setenta empresas (como 3dfx con su tarjeta Voodoo, S3 Graphics, Matrox, Rendition o ATI) que competían por fabricar chips para videojuegos. El problema era que cada empresa ofrecía tecnología incompatible con las demás.
Esto era complicado para cualquiera que quisiera estar en el negocio de los videojuegos: un desarrollador podía pasar meses optimizando su juego para las tarjetas de 3dfx, y después descubrir que los usuarios con Matrox no podían jugar, y había estudios pequeños que no podían permitirse desarrollar múltiples versiones del mismo juego.
Microsoft intentó poner orden desarrollando DirectX, una plataforma de software que quería estandarizar todo esto. La idea era sencilla: en lugar de que cada juego tuviera que adaptarse a cada tarjeta gráfica, los desarrolladores podrían programar sus juegos siguiendo las reglas de DirectX. Y así, si una tarjeta gráfica era compatible con esa plataforma, cualquier juego funcionaría en ella.
Pero para que todo esto funcionara, las empresas de chips gráficos tenían que aceptar un conjunto de decisiones técnicas comunes. Y la más importante de todas tenía que ver con las primitivas gráficas, que son los bloques geométricos básicos con los que se construyen todas las imágenes tridimensionales.
Microsoft eligió triángulos porque son las figuras geométricas más sencillas que pueden definir cualquier superficie plana y con triángulos suficientemente pequeños, puedes aproximar cualquier forma curva.
Tres ingenieros en un restaurante
En1993, tres ingenieros decidieron fundar su propia empresa de chips gráficos y se reunieron en un Denny’s en San José para discutir su visión.
Jensen Huang tenía treinta años y había trabajado en AMD diseñando microprocesadores, Malachowsky venía de Sun Microsystems y Curtis Priem era un diseñador de chips con bastante experiencia en IBM. Ninguno había dirigido una empresa, pero estaban convencidos de algo: los videojuegos 3D estaban a punto de transformar la industria de los ordenadores personales, y las CPUs tradicionales no servían para esto.
Bautizaron la empresa NVIDIA, una combinación de la palabra latina “invidia” (envidia) y la abreviatura NV por “next version”. Necesitaban veinte millones de dólares en capital de riesgo, pero en un mercado ya saturado de competidores no era fácil convencer a un inversor. ¿Por qué el mundo necesitaba una empresa más de chips gráficos cuando ya había setenta? La respuesta de Huang era muy simple: “porque ninguna lo estaba haciendo bien“.
La apuesta técnica del NV1
En 1995, NVIDIA lanzó su primer chip gráfico: el NV1.
La decisión más crítica que tomó el equipo de ingeniería fue usar cuadriláteros como primitivas gráficas básicas en lugar de triángulos.
Ellos creían que los cuadriláteros ofrecían ventajas reales para renderizar superficies curvas y ciertos tipos de geometría compleja y podían producir imágenes de más calidad con menos cálculos. Además, el NV1 incluyeron características inusuales para la época (integraba audio y un puerto para joystick). El equipo de ingeniería estaba orgullosísimo. Habían creado algo diferente y técnicamente superior a lo que ofrecían los demás.
Pero encontraron un problema…
El muro de la incompatibilidad
El problema era simple pero devastador: DirectX, que era el estándar de Microsoft, utilizaba triángulos y, por ello, todo el ecosistema se construía alrededor de triángulos.
Los desarrolladores que querían usar el NV1 tenían que convertir sus modelos 3D de triángulos a cuadriláteros.
Aún así creían que su apuesta podría funcionar y, de hecho,NVIDIA firmó un contrato importante con Sega para usar el NV1 en sus consolas. Para Jensen Huang, esto validaba su visión y Nvidia parecía haber encontrado el camino hacia el éxito diferenciándose técnicamente de la competencia.
Pero en la práctica, los desarrolladores de juegos enfrentaban un problema: programar para cuadriláteros requería herramientas diferentes, código diferente y una curva de aprendizaje adicional.
La crisis de 1997
El NV1 fracasó comercialmente. Los desarrolladores simplemente no querían invertir tiempo y recursos en programar para un estándar propietario cuando DirectX se estaba convirtiendo en universal. La crisis llegó cuando Sega canceló sus compromisos y NVIDIA se dió cuenta de que había quemado millones de dólares en desarrollo sin generar los ingresos esperados.
En 1997, apenas cuatro años después de su fundación, la empresa estaba al borde de la quiebra. Se dice que tenían efectivo suficiente para aguantar solo seis meses más y los empleados comenzaron a abandonar el barco, buscando seguridad en otras empresas de Silicon Valley.
Los inversores, liderados por Sequoia Capital, presionaban y Don Valentine, el legendario inversor de riesgo que había invertido en empresas como Apple y Cisco, les dio un ultimátum implícito: o cambiaban de dirección o cerraban y evitaban más pérdidas. Valentine había visto suficientes startups fracasar por aferrarse tercamente a ideas que el mercado rechazaba y ellos iban camino de hacer lo mismo.
Para los fundadores, especialmente para Huang, era un momento de reflexión: habían invertido años de sus vidas y millones de dólares de otras personas en una visión buena pero que el mercado rechazaba. Podían culpar a Microsoft o a los desarrolladores por no verlo, pero la realidad es que no tenía sentido seguir apostando por los cuadriláteros.
La decisión más difícil
Jensen Huang enfrentó la decisión más difícil de su carrera. Podía defender su visión original, y apostar porque el mercado reconocería la superioridad técnica de los cuadriláteros, o podía admitir que había cometido un error fundamental y pivotar completamente. Para un equipo de ingenieros brillantes que habían invertido años diseñando tecnología innovadora, admitir que estaban equivocados era profundamente humillante.
Pero Huang entendió algo crucial sobre cómo funciona la industria tecnológica: el mercado no se equivoca, las empresas sí. El mercado no siempre elige la mejor tecnología por sus características técnicas, sino que define qué es “mejor” basándose en otros factores como compatibilidad, disponibilidad de herramientas, curva de aprendizaje, o lo que se llama “efectos de red”.
Los economistas llaman “efectos de red” a lo siguiente: cuando todos usan la misma tecnología, esa tecnología se vuelve exponencialmente más valiosa. Aunque exista una alternativa técnicamente superior; el valor real está en la compatibilidad, en poder usar las mismas herramientas, compartir el mismo código, contratar desarrolladores que ya conocen el sistema.
Es el mismo fenómeno que hace que Windows domine el mercado de los ordenadores o que el formato VHS derrotara a Betamax en los ochenta a pesar de ser técnicamente inferior. Una vez que un estándar alcanza masa crítica, desplazarlo requiere algo más que superioridad técnica. Requiere una ventaja tan abrumadora que justifique el costo masivo de cambiar todo un ecosistema.
Cuando DirectX con triángulos alcanzó masa crítica, cualquier tecnología alternativa, sin importar sus méritos técnicos, estaba condenada. Huang tomó la decisión: NVIDIA abandonaría los cuadriláteros, adoptaría triángulos y seguiría el estándar DirectX. Rediseñarían completamente su siguiente chip desde cero. Esta decisión requirió tragarse el orgullo, pero era la única forma de sobrevivir.
El rescate: RIVA 128
A finales de 1997, NVIDIA lanzó el RIVA 128. Este chip seguía completamente el estándar DirectX con triángulos como primitivas gráficas. Técnicamente, era peor que el NV1 (no tenía las ventajas de los cuadriláteros, ni era una solución multimedia todo en uno. Pero eso ya no importaba.
El RIVA 128 era compatible con miles de videojuegos, y los desarrolladores no tenían que aprender nada nuevo.
El éxito fue inmediato. NVIDIA vendió millones de unidades en muy pocos meses. El RIVA 128 ayudó a popularizar juegos como Quake II, convirtiéndose en una de las tarjetas gráficas más vendidas de esa generación. Los reviews de revistas especializadas como PC Gamer y Computer Gaming World elogiaban su rendimiento y su compatibilidad. Era exactamente lo que el mercado necesitaba: potencia sin complicaciones.
La empresa que estaba a seis meses de cerrar sus puertas acababa de salvarse. Volvían a tener el apoyo de inversores y los empleados ya querían quedarse. Pero sobre todo, aprendieron la lección más importante de la cultura de NVIDIA: la compatibilidad con el ecosistema es más importante que la superioridad técnica aislada.
NV1 se convirtió en un recordatorio constante de los peligros del aislamiento tecnológico.
El nacimiento de la GPU
En 1999, NVIDIA lanzó el GeForce 256, un chip que transformó la industria. Huang acuñó el término GPU, Graphics Processing Unit, para diferenciarlo de las CPUs de toda la vida.
Para quien no lo sepa, una CPU es como el “cerebro” del ordenador y ejecuta tareas secuencialmente, es decir, una detrás de otra. Puede hacer cualquier tarea compleja, pero solo una cosa a la vez.
Una GPU, por el contrario, tiene miles de núcleos más simples que pueden ejecutar muchas operaciones a la vez, lo que se conoce como procesamiento en paralelo. Esta arquitectura es perfecta para gráficos, donde cada píxel de la pantalla puede calcularse independientemente.
El GeForce 256 seguía completamente el estándar DirectX, pero lo ejecutaba mejor que cualquier competidor y, gracias a ello, NVIDIA comenzó a dominar el mercado de tarjetas gráficas para videojuegos. Pero Huang ya estaba pensando en algo más grande que videojuegos.

CUDA: aplicando la lección
La lección de 1997 sobre la importancia de los estándares y la compatibilidad volvería a ser crucial años después, cuando NVIDIA tomó otra apuesta arriesgada. En 2006, la empresa lanzó CUDA, abreviatura de Compute Unified Device Architecture, CUDA era una plataforma de software que permitía a los programadores usar GPUs para uso general, no solo para gráficos.
La idea había estado circulando en la empresa durante años. Los ingenieros de NVIDIA se habían dado cuenta de algo importante: la arquitectura de procesamiento paralelo que hacía las GPUs tan buenas para gráficos también las hacía perfectas para otros tipos de cálculos. Simulaciones científicas, análisis de datos, criptografía, cualquier problema que pudiera dividirse en miles de pequeñas tareas independientes podría beneficiarse enormemente.
Antes de CUDA, si querías usar una GPU para hacer cálculos científicos o simulaciones complejas, tenías que programar como si estuvieras renderizando gráficos, usando lenguajes especializados y poco intuitivos para científicos e ingenieros. Era como pedirle a un físico que aprendiera animación 3D solo para ejecutar sus simulaciones más rápido. Era absurdo.
Aquí es donde Huang aplicó directamente la lección aprendida con el NV1. En lugar de forzar a los programadores a aprender un lenguaje completamente nuevo y propietario, NVIDIA hizo CUDA compatible con C y C++, lenguajes de programación que millones de desarrolladores ya conocían. No tenías que ser un experto en gráficos para usar una GPU. Podías escribir código relativamente familiar y CUDA se encargaba de traducirlo para que la GPU lo ejecutara eficientemente.
Esta decisión de diseño fue estratégica y directamente inspirada en el fracaso del NV1. Reducir la barrera de entrada y no forzar a la gente a tu mundo, sino traer tu tecnología al donde ellos están.
De todas formas, CUDA no tenía aún un mercado claro. Las empresas no entendían por qué necesitaban GPUs si no eran para diseño gráfico, así que era una inversión sin retorno inmediato garantizado y algunos en la junta directiva dudaban.
Pero Huang insistió. Había aprendido otra lección del episodio del NV1: a veces necesitas apostar por tecnología antes de que el mercado exista, siempre que lo hagas reduciendo las barreras de entrada. CUDA era exactamente eso: una tecnología sin mercado claro, pero diseñada para ser un éxito cuando ese mercado apareciera.
Durante unos años no generó ingresos pero la utilizaron investigadores, físicos, biólogos, astrónomos… y ya se veía su calidad.
El momento AlexNet
En 2012, pasó algo muy importante. Un equipo de investigadores liderados por Geoffrey Hinton en la Universidad de Toronto ganó ImageNet, un concurso que se hacía todos los años para reconocer objetos en imágenes, usando redes neuronales profundas y que se hacía, con GPUs de NVIDIA.
El modelo llamado AlexNet, superó a todos los competidores pero con un margen enorme (de tasas de error del 25%, AlexNet bajaba al 16%). Esto demostró que el deep learning era algo que servía en la práctica. Las redes neuronales profundas requierían entrenar modelos con millones de parámetros usando millones de ejemplos y esto significa hacer trillones de multiplicaciones de matrices, el tipo exacto de operación que las GPUs hacían extraordinariamente bien. Y las GPUs programadas con CUDA eran la única forma de hacerlo escalable y accesible.
El éxito de AlexNet desató una revolución: investigadores de inteligencia artificial en todo el mundo comenzaron a comprar GPUs de NVIDIA. Papers académicos sobre deep learning empezaron a incluir secciones de agradecimiento a NVIDIA por proporcionar hardware y empresas como Google, Facebook y Microsoft invirtieron miles de millones en data centers con hardware de NVIDIA.
Este éxito fue posible porque CUDA ya era accesible. Los científicos podían empezar a experimentar rápidamente porque el ecosistema de programación era familiar y había tutoriales, ejemplos de código, bibliotecas compartidas, comunidades online. Todo esto había estado acumulándose durante los seis años desde el lanzamiento de CUDA.
Si NVIDIA hubiera cometido el mismo error que con el NV1, creando un lenguaje propietario incompatible y difícil de aprender, la historia podría haber sido completamente diferente. Los investigadores de IA habrían buscado alternativas. Quizás habrían presionado a AMD o Intel para desarrollar soluciones competitivas. Quizás el deep learning habría tardado años más en despegar, esperando que surgiera una plataforma más accesible.
Pero no tuvieron que esperar. CUDA ya estaba ahí, lista y accesible, cuando el mundo finalmente la necesitó.
El dominio actual
Hoy, NVIDIA controla aproximadamente entre el 80 y el 95% del mercado de GPUs para inteligencia artificial. Cada empresa que entrena modelos de lenguaje grandes, como ChatGPT de OpenAI o Gemini de Google, depende de chips H100, A100 o Blackwell de NVIDIA.

La capitalización de mercado de NVIDIA superó los dos trillones de dólares, convirtiéndola en una de las empresas más valiosas del mundo.
Jensen Huang, el hombre de la chaqueta de cuero, es considerado un visionario que vio venir la era de la inteligencia artificial décadas antes que otros. Pero este dominio absoluto tiene raíces directas en aquella decisión de 1997: cuando Huang admitió que los cuadriláteros eran un error y humildemente adoptó triángulos, y aprendió que el verdadero poder en tecnología no siempre viene de tener la solución más potente. Viene de construir sobre lo que la industria ya utiliza, de integrarse en el ecosistema existente y hacerlo mejor que nadie desde dentro del estándar, no desde fuera.
Competidores como AMD tienen tecnología comparable en muchos aspectos. En benchmarks, a veces superan a NVIDIA, pero cambiar de NVIDIA a otra plataforma requiere reescribir millones de líneas de código, reentrenar equipos de ingenieros y abandonar años de optimizaciones específicas de CUDA.
El costo de cambio es tan alto que CUDA se convirtió en un estándar de facto, exactamente como DirectX con triángulos lo hizo en los noventa. La historia se repitió, pero esta vez NVIDIA estaba del lado correcto 😉
La lección permanente
La historia del NV1 enseña una verdad incómoda sobre innovación tecnológica que muchas startups y empresas establecidas ignoran repetidamente: la mejor solución técnica no siempre gana. La solución más compatible con el ecosistema existente sí.
Jensen Huang descubrió que forzar al mundo a adoptar tu visión aislada, sin importar cuán brillante sea, te mata. El verdadero poder estratégico viene de entender qué estándares están emergiendo, aceptarlos aunque no sean perfectos y luego innovar dentro de esas restricciones para ejecutar mejor que cualquier otro.
La empresa pasó de ser una startup convencida de su superioridad técnica a una organización que entiende cómo funcionan los mercados tecnológicos reales. Cada decisión posterior, desde el GeForce hasta CUDA y los Tensor Cores especializados para deep learning, siguió el mismo principio: innovar dentro del estándar, no contra él.
Hoy Jensen Huang sube al escenario con su chaqueta de cuero para anunciar los chips que entrenan los sistemas de inteligencia artificial más avanzados del planeta y Nvidia se ha convertido en una de las empresas más influyentes del mundo tecnológico.
Pero esa historia no empezó con la inteligencia artificial. Empezó con un error.
Hace treinta años Nvidia apostó por la tecnología equivocada y estuvo a punto de desaparecer y la empresa sobrevivió porque su fundador hizo algo que rara vez ocurre en la industria tecnológica: admitir que estaba equivocado y reconstruir toda su estrategia a partir de esa lección.


