nvidia | |
---|---|
Corporación NVIDIA | |
| |
Tipo de | compañía pública |
listado de intercambio | NASDAQ : NVDA |
Base | 1993 |
Predecesor | 3dfx interactivo [1] [2] y Ageia [3] |
Fundadores | Jensen Huang , Chris Malachowski y Curtis Prem |
Ubicación | Estados Unidos :Santa Clara,California |
Industria | la industria de semiconductores |
Productos | GPU , chipset y software [4] |
Equidad |
|
Rotación |
|
Beneficio operativo |
|
Beneficio neto |
|
Activos |
|
Capitalización |
|
Número de empleados |
|
Compañías afiliadas | Mellanox |
Sitio web | nvidia.com |
Archivos multimedia en Wikimedia Commons |
Nvidia ( / ɛnˈvɪdiə / ; NVIDIA Corporation ) es una empresa de tecnología estadounidense , desarrolladora de procesadores gráficos y sistemas en un chip (SoC) . Los desarrollos de la compañía se han extendido a la industria de los videojuegos, la visualización profesional, la computación de alto rendimiento y la industria automotriz, donde las computadoras de a bordo de Nvidia se utilizan como base para los vehículos no tripulados.
La empresa fue fundada en 1993. A partir del cuarto trimestre de 2018, era el fabricante más grande del mundo de gráficos discretos compatibles con PC con una participación del 81,2 % (las estadísticas incluyen todas las GPU disponibles para compra directa por parte de los usuarios finales: aceleradores basados en GPU GeForce , Quadro y Tesla ) [10] . A enero de 2018, el número de empleados superó las 11,5 mil personas. La sede está en Santa Clara ( California ) [11] .
Los fundadores Jensen Huang , Chris Malachowski y Curtis Prem decidieron formar la empresa en abril de 1993 durante un almuerzo en Denny's en San José, California . Malachowski y Prem trabajaron como ingenieros en Sun Microsystems , pero no estaban contentos con la dirección elegida por la empresa. Huang ocupó uno de los puestos principales en el fabricante de circuitos integrados LSI Logic . Creían que el próximo gran avance en la industria informática vendría de los cálculos acelerados por hardware que eran demasiado pesados para los procesadores de propósito general . La elección a favor del desarrollo de unidades de procesamiento de gráficos (GPU) se debió al rápido crecimiento de la popularidad de los videojuegos con gráficos tridimensionales , que prometían grandes ganancias para los fabricantes de tarjetas de video. En su puesta en marcha de $ 40,000 , Huang se convirtió en presidente y director ejecutivo (CEO), Malachowski se convirtió en vicepresidente de ingeniería y Prem se convirtió en director de tecnología . A los socios se les ocurrió el nombre solo en la víspera del registro de la empresa: fue elegido como un derivado de lat. invidia ("envidia"), que contiene una combinación de letras nv , una abreviatura de la frase próxima versión ("próxima versión"), que los empresarios usaron para designar toda la documentación para el nuevo proyecto [12] [13] [14] .
La empresa operaba en un modelo sin fábrica , es decir, se dedicaba al diseño y la comercialización de productos, pero no era propietaria de la fabricación interna de obleas y microchips . La empresa tardó casi un año en encontrar un socio que pudiera producir un microprocesador utilizando un proceso de 0,5 micras (500 nanómetros ): fue SGS-Thomson Microelectronics , que proporcionó a la empresa capacidad de producción cerca de Grenoble en Francia . En mayo de 1995, Nvidia presentó su primer desarrollo: la tarjeta multimedia NV1 , que combinaba una unidad de procesamiento de gráficos 2D, un acelerador de gráficos 3D, una tarjeta de sonido y un puerto para un controlador de juego compatible con Sega Saturn en una sola placa PCI . Las empresas colaboraron y, como parte de un acuerdo con la división estadounidense de Sega, algunos de los juegos de Saturn se transfirieron a la PC para ejecutarse en la NV1. También se lanzaron versiones de la NV1 bajo las marcas Diamond Multimedia y SGS-Thomson. El lanzamiento de la NV1 le costó a la compañía la mayor parte de la primera ronda de inversiones de $10 millones de la compañía de Sequoia Capital , Sutter Hill Ventures y Sierra Ventures pero la tarjeta tuvo un éxito limitado debido a su uso de superficies cuadráticas y, en consecuencia, su fundamental incompatibilidad con la API de DirectX de Microsoft, que pronto se lanzará , en la que se usaban polígonos triangulares primitivo principal para construir escenas 3D La empresa se vio obligada a despedir a la mitad de su personal y, posteriormente, abandonó el desarrollo de NV2 para Sega Dreamcast y se centró en el desarrollo de componentes para PC [13] [14] [15] [16] [17] .
En la primera mitad de 1997, la compañía presentó el procesador de gráficos NV3, que se llamó RIVA 128 (del inglés Real-time Interactive Video and Animation acelerador , acelerador de animación y video interactivo en tiempo real). Gracias al soporte de Direct3D, el alto rendimiento y un precio más bajo que su principal competidor Voodoo Graphics de 3dfx Interactive (había más de 30 empresas en el mercado que ofrecían tarjetas de video con aceleradores 3D), RIVA 128 ganó gran popularidad. Le siguió en marzo de 1998 el aún más exitoso NV4, RIVA TNT (TwiN Texel), el primer acelerador de gráficos 3D en el mercado de consumo que podía mapear 2 texturas por pasada, y también estaba por delante de la competencia con procesamiento paralelo 2D y 3D. y soporte para truecolor . El éxito de RIVA 128 y RIVA TNT estableció a Nvidia como uno de los jugadores clave en el mercado de aceleradores de gráficos (a fines de 1997, su participación de mercado se estimaba en 24%). RIVA TNT recibió un premio Editors' Choice de PC Magazine en 1998 y fue nombrada la "Compañía de semiconductores Fabless más admirada" por la Asociación de semiconductores Fabless en 1997 y 1998 [12] [14] [ 12] [14] [ 16] [ 17] .
A principios de 1998, se planeó una oferta pública inicial, pero después del anuncio de esto, recibió una serie de reclamos por infracción de patente sobre tecnología de texturas múltiples de competidores representados por Silicon Graphics , S3 Graphics y 3dfx Interactive . Según los resultados del ejercicio de 1998, los ingresos de la empresa alcanzaron los 158,2 millones de dólares y el beneficio neto - 4,1 millones contra 13,3 y 1,3 millones del año anterior. En enero de 1999, se realizó una oferta pública inicial en la bolsa NASDAQ , se subastaron 3,5 millones de acciones a un precio inicial de $12, que subió a $19,69 al final del día, la colocación le reportó a la empresa $42 millones y su capitalización bursátil alcanzó los 626,1 millones [14] [18] .
En 1999, se lanzó el acelerador de gráficos RIVA TNT2 (NV5), una versión mejorada de RIVA TNT, con la que la empresa se acercó a la posición de 3dfx, que ocupaba una posición alta en el mercado debido a la popularidad de la API Glide entre desarrolladores de juegos Pero el lanzamiento más significativo del año fue la GeForce 256 , el primer procesador gráfico que, gracias a la unidad de iluminación y transformación de geometría integrada , proporcionó un salto de rendimiento significativo en sistemas con procesadores centrales débiles [19] . Paralelamente, la empresa inició procedimientos de patentes contra S3 Graphics por infracción de varias patentes, que se resolvieron mediante un acuerdo de licencia cruzada de cartera de patentes y la transferencia de 50 ingenieros de S3 a Nvidia.
En 2001-2002, la empresa se vio envuelta en una disputa de patentes con 3dfx Interactive , durante la cual esta última no pudo soportar la competencia y quebró. Por 70 millones de dólares, Nvidia compró los activos de la tarjeta gráfica de 3dfx, incluidas las patentes, las marcas comerciales y el inventario [14] [20] .
A principios de la década de 2000, la mayoría de los fabricantes de aceleradores de gráficos habían quebrado y se había formado un duopolio de Nvidia y ATI en el mercado de aceleradores de gráficos discretos. Después del fallido acelerador i740 , Intel abandonó los esfuerzos para lanzar una solución de gráficos discretos y se centró en los gráficos integrados bajo la marca Intel Extreme Graphics [21] . Las cuotas de mercado de gráficos para PC, incluidos los gráficos integrados, se distribuyeron de la siguiente manera: Nvidia - 31%, Intel - 26%, ATI - 17%, el resto de las empresas estaban en la periferia. La competencia impulsó la innovación tecnológica acelerada en los productos de ambas empresas, lo que hizo imposible que otro jugador importante ingresara al mercado. En 2000-2003, la empresa actuó como proveedor de chips gráficos para Xbox , y luego de que Microsoft decidiera reducir el costo de la consola, ATI tomó su lugar. A su vez, Nvidia firmó un contrato con Sony para suministrar procesadores gráficos para PlayStation 3 y luego se convirtió en un proveedor discreto de gráficos para las computadoras de escritorio Apple [20] [22] .
En 2006, se produjeron 2 eventos significativos en el mercado de aceleradores de gráficos. La venta de ATI a Advanced Micro Devices por 5.400 millones de dólares en octubre de 2006 puso fin a su asociación con Intel [23] . Como resultado, los contratos para el suministro de gráficos integrados y discretos, que llevaron a ATI hasta el 60-70% de los ingresos, se transfirieron a Nvidia y la participación de mercado de AMD/ATI se redujo notablemente. Y 2 semanas más tarde, la empresa fue la primera en introducir una arquitectura de sombreado de GPU GPU unificada para PC [22] . En 2007, Nvidia introdujo la arquitectura de hardware y software de computación paralela CUDA , que simplificó el uso de GPU para computación de propósito general y formó la base de productos especializados: el motor de física PhysX y el motor de gráficos de trazado de rayos OptiX [24] .
En el contexto del crecimiento del segmento de gráficos integrados a fines de la década de 2000 y principios de la de 2010 (en 2007, Intel controlaba el 35 % del mercado de gráficos, Nvidia, el 25 %, a principios de la década de 2010, la participación de Intel superaba el 50 % [21 ] [24] ), la empresa diversificó su negocio invirtiendo en computación de alto rendimiento y soluciones integradas para la industria automotriz [25] . El éxito de la empresa en la aceleración de la informática, incluso para las redes neuronales, atrajo a otros "gigantes tecnológicos" a esta área: en 2015-2016, Intel ingresó al mercado de aceleración de hardware de aprendizaje profundo mediante la adquisición de Altera, un fabricante de matrices de puertas programables por el usuario . y las empresas sin fábrica Nervana y Movidus, y en mayo de 2016 Google lanzó su propio procesador tensor optimizado para construir redes neuronales utilizando las bibliotecas TensorFlow [12] . A fines de 2018, la venta de aceleradores de cómputo y soluciones para centros de datos le reportó a la empresa $1.930 millones (un 133 % más que en 2017 y casi el 24 % de la facturación en 2018), y productos para la industria automotriz: $558 millones (alrededor de 5 . 7%) [26] .
En marzo de 2019, Nvidia anunció el lanzamiento de una nueva computadora de placa única Jetson Nano con soporte incorporado para inteligencia artificial, cuyo tamaño es de solo 70x45 milímetros [27] .
En marzo de 2019, anunció el inicio de una compra de $ 6900 millones de la empresa israelí Mellanox , que fabrica conmutadores InfiniBand y Ethernet y adaptadores de red para centros de datos y computación de alto rendimiento . La transacción fue la mayor adquisición en la historia de la empresa [28] [29] y se completó el 27 de abril de 2020 [30] [31] .
En mayo de 2020 se adquirió Cumulus Networks , que se especializa en el desarrollo de software de código abierto para equipos de red, como el sistema operativo de red Cumulus Linux para conmutadores sin sistema operativo [32] .
En los informes anuales, la empresa identifica dos familias de productos y 4 mercados objetivo en los que opera. Los principales productos son las GPU, representadas por la línea principal GeForce , las tarjetas gráficas profesionales Quadro y los aceleradores informáticos Tesla , y los sistemas Tegra en un chip . El lanzamiento de procesadores gráficos ha sido históricamente el principal negocio de la empresa: a principios de 2018, su participación en la estructura de ingresos era de alrededor del 80% (el resto lo representaba Tegra y las soluciones basadas en él). Los mercados objetivo de la empresa son la industria del juego , la visualización profesional, la automoción y la informática de alto rendimiento . Un enfoque importante para la empresa es el mercado de la inteligencia artificial [33] .
Los productos de consumo dirigidos al mercado de los videojuegos están bajo la marca GeForce: GeForce GPU , el software de optimización del rendimiento GeForce Experience y el servicio de juegos en la nube GeForce NOW . Destacan los dispositivos de juego de la serie SHIELD basados en el sistema en un chip Tegra . Para los desarrolladores, la empresa lanza bibliotecas de software especializadas para crear efectos gráficos y entornos realistas en juegos tradicionales y proyectos de realidad virtual. En el mercado de visualización profesional, está representado por procesadores gráficos Quadro y programas y componentes especializados para trabajar con video y gráficos tridimensionales y crear objetos físicos realistas. La dirección de la computación de alto rendimiento incluye aceleradores Tesla , supercomputadoras construidas sobre su base para trabajar con IA de la línea DGX y plataformas en la nube especializadas - GPU Cloud para desarrollar y entrenar redes neuronales y GRID para virtualización de estaciones gráficas productivas. La plataforma de la industria automotriz tiene la marca Drive e incluye computadoras de a bordo y de piloto automático, herramientas de aprendizaje automático para automóviles autónomos, sistemas de información y entretenimiento, sistemas avanzados de asistencia al conductor y herramientas para usar la realidad aumentada en los automóviles [26] .
La historia de la familia de procesadores gráficos GeForce (cuyo nombre estaba compuesto por las palabras geometría ( ing. geometría ) y fuerza ( ing. fuerza ) y contiene un juego de palabras debido a la consonancia con g-force ( ing. aceleración de caída libre ) ) comenzó en 1999 con el lanzamiento de GeForce 256 en el chip NV10 [34] . La empresa lo posicionó como el primer procesador de gráficos; por primera vez, todas las unidades de procesamiento de gráficos se colocaron en un solo chip. La principal innovación fue el bloque T&L , que introdujo soporte de hardware para la transformación de los vértices de objetos 3D (cambiando la posición y la escala), recorte (clipping) e iluminación: anteriormente estas tareas se realizaban en el procesador central [35 ] . En general, la tecnología se generalizó en el mercado de consumo más tarde y, en 1999, los desarrollos se utilizaron en las tarjetas de video Quadro profesionales. La GeForce 256 era compatible con OpenGL 1.3 y fue la primera tarjeta en ser completamente compatible con Direct3D 7. En 2000, la compañía lanzó un chip NV15 mejorado con una tecnología de proceso más delgada y un 40 % más de rendimiento, más canalizaciones de datos y T&L mejorados, así como NV11 simplificado. y NV16 funcionando a una velocidad de reloj más alta. Las tarjetas basadas en ellos se lanzaron bajo la marca GeForce 2 . Al mismo tiempo, se lanzó el procesador de gráficos GeForce Go con un consumo de energía reducido, diseñado para usar en computadoras portátiles. En este momento, la empresa canadiense ATI entró a la competencia , presentando los chips R100 y R200 y el chip móvil RV200. El éxito de mercado de Nvidia y ATI socavó la posición de 3dfx Interactive , que, en un intento por superar a sus competidores, invirtió en el desarrollo del fallido multiprocesador Voodoo 5 6000, que, sumado a las bajas ventas de Voodoo 4, socavó la estabilidad financiera de la empresa y la llevó a la quiebra. Como resultado, Nvidia adquirió la mayoría de los activos de 3dfx y la mayoría de los ingenieros de la competencia fueron transferidos a su personal [17] [36] [37] .
En 2001, se lanzó el chip NV20, que introdujo la tecnología LMA (Lightspeed Memory Architecture), una gran cantidad de controladores de memoria con ancho de banda reducido. Entre las novedades también se encontraban una memoria SDRAM más rápida, soporte para sombreadores de píxeles y vértices , soporte para anti-aliasing MSAA y trabajo con Direct3D 8. Las tarjetas de la línea GeForce 3 se basaron en este chip , así como el procesador de gráficos de la Consola de juegos Xbox de Microsoft . A principios de 2002, la empresa presentó la línea GeForce 4 . Las tarjetas de presupuesto en esta línea se basaron en los conjuntos de chips NV17, NV18 y NV19, que eran esencialmente modificaciones del NV11, y fueron un gran éxito comercial. Posteriormente, la empresa lanzó tarjetas más potentes basadas en el chip NV25, una versión mejorada del NV20. En respuesta a los desarrollos de Nvidia, ATI presentó el procesador insignia R300, en el que, al duplicar el número de todos los módulos informáticos, logró un rendimiento superior al de GeForce 4. A fines de 2002, la compañía lanzó el procesador NV30, que se usó en el quinto generación de GeForce- GeForce FX . A pesar de que Nvidia se quedó atrás de ATI en el lanzamiento de un procesador compatible con DX9, la compañía alcanzó a su competidor debido a las nuevas tecnologías: compatibilidad con el modelo de sombreado versión 2.0a, nuevos algoritmos de suavizado y filtrado, PCI Express interfaz y memoria DDR2 [38] . Unos meses después de la NV30, la NV35 salió con una unidad de sombreado de vértices adicional, unidades de sombreado de píxeles mejoradas, un bus de memoria más amplio y la tecnología de representación de sombras UltraShadow [39] . En el siguiente 2005, se introdujeron el chip NV40 y la GeForce de sexta generación , cuyo modelo insignia, debido a las nuevas tecnologías, casi duplicó el rendimiento de los modelos de quinta generación. GeForce 6 recibió soporte para DirectX 9.0c y shader model versión 3, soporte de hardware para decodificación de video en formatos H.264 , VC-1 , WMV y MPEG-2 , así como la capacidad de usar varias tarjetas en paralelo a través del hardware SLI -paquete de software . Las tarjetas económicas GeForce 6 se basaron en el chip NV43, una versión simplificada y económica de la NV40 [17] [37] [40] para fabricar .
Con la GeForce de octava generación basada en el chip G80, la compañía ha rediseñado significativamente la arquitectura de la GPU, utilizando procesadores de sombreado unificados en las canalizaciones de procesamiento de datos. En el otoño de 2006, se introdujo la nueva arquitectura Tesla , una característica de la cual fue el rechazo de bloques separados para vertex y pixel shaders, que reemplazó a los procesadores unificados capaces de ejecutar cualquier tipo de shader [41] . Debido al hecho de que las unidades informáticas universales podían realizar varios tipos de cálculos, el chip G80 basado en la arquitectura Tesla logró resolver el problema de la distribución desigual de los recursos. El procesador recibió soporte para DirectX 10, trabajó con shaders versión 4 y superó dos veces al G70 en las pruebas de rendimiento. A finales de 2006, ATI pasó a manos de AMD y se convirtió en su división de gráficos. Lanzado a principios de 2007, el procesador R670 era una solución de gama media y tampoco competía en rendimiento con sus propios "buques insignia". Junto con los sombreadores universales, la compañía introdujo la arquitectura de hardware y software CUDA , que permite escribir programas para procesadores gráficos en un lenguaje similar a C y transferir computación paralela masiva que es pesada para los procesadores a una tarjeta de video. Con GeForce 8 y 9 , la compañía introdujo soporte de hardware para computación general con precisión de 32 bits, y en la décima generación, la GeForce 200 basada en GT200 , con doble precisión de 64 bits [42] . El multiproceso de hardware hizo posible transferir los cálculos de la física de los objetos basados en el motor físico PhysX a la tarjeta de video . También en la primavera de 2009, Nvidia lanzó una línea de tarjetas gráficas GeForce 100 exclusivamente para OEM y basada en el diseño GeForce 9, y en otoño, otra serie OEM GeForce 300 basada en tarjetas de la serie 200 [17] [40] [ 43] [ 44] .
En 2010, la empresa presentó la nueva microarquitectura Fermi y la línea de tarjetas GeForce 400 basadas en ella . El procesador insignia de esta generación fue el GF100, que tenía un rendimiento tremendo, pero era muy grande y difícil de fabricar. Durante el desarrollo de los modelos junior de procesadores gráficos de esta familia, se revisó la organización de los multiprocesadores de transmisión, lo que permitió compactar la organización del chip, reducir su área y costo. En los chips de la familia GeForce 500 , la empresa mantuvo la arquitectura Fermi, pero la rediseñó a nivel de diseño físico , usando transistores más lentos y más eficientes energéticamente en elementos del procesador que no requieren alta velocidad, y más rápidos en elementos críticos. Como resultado, las tarjetas GeForce 500 resultaron ser notablemente más eficientes energéticamente a velocidades de reloj más altas. La próxima generación de GPU GeForce 600 se basó en la nueva arquitectura Kepler , se fabricó en un proceso de 28 nm e incluyó tres veces más núcleos CUDA, lo que brindó un aumento del 30 % en el rendimiento de los juegos. La GeForce 700 de próxima generación se basó en chips diseñados originalmente para los aceleradores de computación Tesla, y las tarjetas insignia de esta generación tenían un rendimiento sobresaliente, que se vio empañado un poco por su alto precio. Se realizaron más avances en las GPU con el cambio a la arquitectura Maxwell , en la que la empresa rediseñó el subsistema de memoria e introdujo nuevos algoritmos de compresión. Gracias a esto, la familia de tarjetas GeForce 900 resultó ser un tercio más eficiente energéticamente que sus predecesoras. La generación GeForce 10 se basó en la nueva microarquitectura Pascal y se produjo con una tecnología de proceso más delgada de 16 nm. Sin embargo, el verdadero avance, según el fundador y presidente de la empresa, Jensen Huang, fue la nueva microarquitectura de Turing , anunciada en 2018. En las nuevas GPU de la serie 20 (GeForce RTX) , la compañía es la primera en el mundo en introducir tecnología de trazado de rayos en tiempo real acelerada por hardware en núcleos RT especializados y soporte para trabajo de IA basado en núcleos tensoriales, lo que supone un gran salto. en la calidad del trabajo con luz y reflejos en juegos de computadora. Como señaló la compañía, las tarjetas basadas en Turing de la familia GeForce 20 recibieron un aumento de rendimiento del 40-60 % en juegos que no están optimizados para nuevas tecnologías, y hasta un 125 % en juegos con soporte para la tecnología Deep Learning Super Sampling en comparación con la generación anterior GeForce 10 [ 17] [45] [46] [47] .
Experiencia GeForceEn 2013, la compañía lanzó la utilidad GeForce Experience, que optimiza el rendimiento de las PC con tarjetas de video Nvidia en los juegos, verifica la validez de los controladores instalados en el dispositivo, agrega la función de grabación y transmisión de juegos y otras características para un cómodo experiencia de juego GeForce Experience ha sido compatible con las GPU de la empresa desde el lanzamiento de GeForce 400 en 2010 [48] . La utilidad automatiza la verificación y actualización de los controladores, incluidos los controladores Game Ready optimizados para juegos específicos, y también establece la configuración óptima para el mejor rendimiento en los juegos según los parámetros de una PC específica. Mientras juega, GeForce Experience actúa como una superposición que proporciona acceso a herramientas adicionales [48] [49] .
Estos incluyen la herramienta de grabación y transmisión de juegos ShadowPlay, implementada sobre la base del codificador de hardware Nvidia NVENC integrado en el chip gráfico de los procesadores con la arquitectura Kepler y superior [50] . ShadowPlay le permite grabar en resoluciones HD, Full HD , 2K y 4K a 30 o 60 cuadros por segundo y tasas de bits de 10 a 50 megabits por segundo, admite visualización de cámara web en la esquina de la pantalla y captura de pantalla y varios modos de grabación. incluyendo mantener un registro de hasta 20 minutos del juego que ya ha pasado [51] . Los videos se guardan con codificación H.264 en formato MP4 , y ShadowPlay también admite la transmisión a cuentas conectadas de Twitch , Facebook y YouTube [52] . En 2017, ShadowPlay se complementó con la tecnología Highlights, que guarda automáticamente momentos importantes del juego en formato de clips de video o GIF de 15 segundos: completar una misión , matar a varios oponentes al mismo tiempo, derrotar a un jefe difícil [53] [54] .
En 2016, Nvidia Experience incluyó la herramienta Ansel, creada en colaboración con desarrolladores de juegos y que lleva el nombre del fotógrafo estadounidense Ansel Adams [55] . Ansel proporciona al usuario opciones avanzadas de captura de pantalla que incluyen imágenes estéreo , panoramas de 360 grados y panoramas estéreo. Ansel le permite detener el juego en cualquier momento, mover y ajustar la cámara para seleccionar el ángulo, usar la clave de croma y realizar el procesamiento posterior [56] . Las imágenes se guardan en formato OpenEXR con soporte para alto rango dinámico . El modo de superresolución permite que la IA escale las imágenes hasta una resolución de 63 360 × 35 640 sin interpolación [57] . En agosto de 2018, con el lanzamiento de nuevas GPU con hardware de trazado de rayos, la empresa presentó Ansel RTX, que calcula 30 veces más rayos de luz que el motor de juegos en tiempo real y permite obtener una imagen fotorrealista [58] [59] .
En enero de 2018, la empresa presentó la tecnología Freestyle como parte de GeForce Experience, que le permite experimentar con sombreadores en el nivel del controlador, cambiando la gama de colores, la nitidez y otros parámetros de imagen, como los filtros de Instagram [60] . El usuario tenía acceso a conjuntos preestablecidos de parámetros, incluidas combinaciones para daltónicos , y 38 configuraciones [48] . Otra característica experimental de GeForce Experience es el modo cooperativo GameStream, que permite al jugador transferir temporalmente el control a otro usuario o invitarlo a unirse al modo cooperativo. En este caso, el juego se iniciará solo en la computadora del primer jugador, y el segundo recibirá la transmisión del proceso del juego a través de la Red [48] .
El desarrollo de las tarjetas gráficas profesionales Quadro para estaciones de trabajo de alto rendimiento comenzó en 1999 con el lanzamiento de la primera solución basada en el núcleo NV10 utilizado en GeForce 256 [19] . Las tarjetas Quadro se basan en los mismos procesadores que las tarjetas GeForce para juegos (de consumo), pero cuentan con componentes más confiables diseñados para un funcionamiento a largo plazo en cargas máximas, y los controladores Quadro tienen cientos de perfiles para un rendimiento máximo en aplicaciones especializadas. Por ejemplo, el editor de gráficos 3D Autodesk Softimage utiliza el motor de física PhysX para acelerar los cálculos en los núcleos CUDA al crear efectos realistas, como agua, fuego o explosiones. Autodesk 3ds Max admite la renderización de escenas en el motor de renderización Nvidia iRay, que accede directamente a la GPU, sin pasar por la CPU, lo que acelera el tiempo de renderización en un orden de magnitud. Tanto iRay como V-Ray de Chaos Group admiten la representación de escenas en tiempo real a expensas de los recursos de la GPU. Autodesk AutoCAD en combinación con Quadro le permite usar sombreadores de hardware al renderizar imágenes [61] . El software CATIA , SolidWorks , PTC Creo , Solid Edge , Compass , Revit , Civil, ArchiCAD , Autodesk Maya , Adobe Photoshop , Adobe Premiere Pro , MSC Nastran , ANSYS [62] también tiene soporte para tecnologías especializadas de Nvidia . Quadro implementa una serie de tecnologías que no están disponibles para los usuarios de GeForce: anti- aliasing a x64 (y hasta x128 cuando se conectan varias tarjetas de video usando la tecnología Nvidia SLI ), administración de múltiples escritorios con bordes de pantalla personalizables, corrección de errores de memoria para alta precisión computación, y una limpieza completa de la memoria al cambiar a nuevas tareas, distribución precisa de la carga computacional entre varias tarjetas gráficas, administración y monitoreo remotos avanzados [63] .
En 2001, Nvidia lanzó su primer chipset de placa base . Las primeras generaciones, nForce , nForce2 y nForce3 , solo funcionaban con procesadores AMD . Las generaciones posteriores ( nForce4 , nForce 500 , nForce 600 , nForce 700 , GeForce 8000/9000 y nForce 900) recibieron soporte para procesadores Intel . En febrero y marzo de 2009, Intel y Nvidia intercambiaron demandas. Intel creía que el acuerdo de licencia cruzada de tecnología de 2004 ya no era válido y que Nvidia no podía producir conjuntos de chips con soporte para buses DMI / QPI y, como resultado, procesadores Nehalem de nueva generación . Nvidia, por otro lado, creía que la segunda parte de esta prohibición violaba el acuerdo de licencia aún válido [64] [65] [66] . Debido a la pérdida del mercado de tarjetas para procesadores Intel, en octubre de 2009 Nvidia anunció la congelación de las inversiones en el desarrollo de nuevos chipsets [67] . Un año después, en noviembre de 2010, la empresa abandonó por completo el negocio de los chipsets. Las razones también fueron el conflicto con Intel (el juicio terminó con la victoria de Nvidia en 2011 [66] ) y el hecho de que la demanda de nForce disminuyó año tras año, a medida que las soluciones gráficas integradas pasaban de conjuntos de chips individuales a procesadores centrales [68] .
La línea Tesla de aceleradores informáticos se introdujo en el verano de 2007, poco después del lanzamiento de la arquitectura informática unificada CUDA, que permite escribir código en un lenguaje de programación similar a C para la informática en una GPU. El primer acelerador Tesla C870 se basó en la GPU G80 que ya se incluye en las tarjetas de la serie GeForce 8 y se basó en la microarquitectura de sombreado unificado también llamada Tesla [69] . También se presentaron soluciones con 2 tarjetas en una "supercomputadora de escritorio" y 4 tarjetas en un factor de forma de servidor blade 1U . El C870 admite cálculos de precisión simple con un rendimiento de 518 gigaflops [70] . Con la transición a una nueva microarquitectura GPU, la empresa actualizó la línea de aceleradores Tesla, y en el caso de Fermi [71] , Pascal [72] , Volta [73] y Turing , los aceleradores Tesla se convirtieron en los primeros productos en la nueva arquitectura presentada al gran público [74] . En 2011, la empresa introdujo la tecnología Maximus, que permite combinar los aceleradores Tesla y las tarjetas gráficas profesionales Quadro en una sola estación de trabajo para la asignación más eficiente de los recursos informáticos. Para ello, en el marco de la tecnología Maximus, la compañía introdujo un controlador universal para ambas tarjetas, optimizado tanto para resolver tareas más estándar basadas en Quadro, como para cálculos especializados basados en Tesla [75] .
El más moderno para octubre de 2018 fue el acelerador de computación Tesla T4 basado en la microarquitectura de Turing, cuya innovación fue el soporte para un rango más amplio de precisión, lo que aumentó considerablemente el rendimiento en cálculos que no imponen requisitos de alta precisión, por ejemplo, al usar modelos de redes neuronales entrenados. Como resultado, Nvidia ha logrado un rendimiento de 8,1 teraflops en precisión simple (FP32), 65 teraflops en precisión mixta simple y media (FP16/FP32), 130 billones de operaciones en modo INT8 y 260 billones en modo INT4 [74 ] [76] .
A finales de 2018, Tesla eran los aceleradores más populares en el campo de la informática de alto rendimiento y se utilizaban en 127 superordenadores incluidos en el Top500 , una clasificación de los dispositivos más potentes de esta clase [77] . A modo de comparación, en el ranking de 2015 había 66 dispositivos que usaban aceleradores Tesla, 26 dispositivos con Intel Xeon Phi basados en procesadores de propósito general y 3 supercomputadoras con AMD FirePro [78] . Dos de las supercomputadoras más poderosas del mundo para 2018 se basaron en aceleradores de computación Tesla: Summit en el Laboratorio Nacional Oak Ridge y Sierra en el Laboratorio Nacional Livermore del Departamento de Energía de EE. UU. [77] . Asimismo, se implementaron cálculos sobre aceleradores de Tesla en la supercomputadora Tsubame del Instituto de Tecnología de Tokio (lugar 29 a finales de 2008) [79] ; la supercomputadora Tiānhé-1A , diseñada por la Universidad China de Ciencia y Tecnología de la Defensa del EPL (primer lugar a octubre de 2010) [80] ; la supercomputadora Titán instalada en el Laboratorio Nacional Oak Ridge del Departamento de Energía de EE. UU. (1er lugar a noviembre de 2012); supercomputadora Cray CS-Storm (décimo lugar en 2014); supercomputadora Piz Daint , organizada por el Centro Nacional de Supercomputación de Suiza (tercer lugar a partir de noviembre de 2017) [81] . Entre las supercomputadoras rusas que utilizan GPU de uso general basadas en aceleradores Nvidia Tesla se encuentran Lomonosov , instalada en la Universidad Estatal de Moscú , y Lobachevsky, ubicada en la Universidad Estatal de Nizhny Novgorod [82] [83] . Además, según la situación de 2018, Nvidia Tesla estuvo en el centro de 22 de las 25 supercomputadoras con mayor eficiencia energética en la clasificación GREEN500 [77] .
Nvidia comenzó a desarrollar una plataforma de procesamiento de datos remotos a mediados de la década de 2000, y en mayo de 2012 presentó sus desarrollos en esta dirección: la plataforma VGX para la virtualización de lugares de trabajo con el rendimiento de una estación de trabajo completa y GeForce GRID, una plataforma tecnológica para ejecutar juegos en la nube [84] [ 85] . VGX se basó en 3 componentes: servidores blade basados en GPU de Nvidia, el propio hipervisor de Nvidia , que se integró en hipervisores comerciales y proporcionó virtualización de GPU y sistema de distribución de recursos entre usuarios [86] . Posteriormente, la empresa presentó soluciones de hardware para VGX: tarjetas gráficas para virtualizar una gran cantidad de trabajos VGX K1 y una solución para ejecutar simultáneamente 2 trabajos para trabajar con gráficos complejos y procesar tareas 3D en aplicaciones Adobe , Autodesk y SolidWorks : VGX K2 [87 ] [ 88] . En marzo de 2013, la empresa presentó una solución llave en mano para diseñadores, arquitectos, diseñadores e ingenieros GRID VCA (Visual Computing Appliance, lit. English equipment for visual computing ), que incluye un servidor en factor de forma 4U, software de cliente y un hipervisor [89 ] [90 ] . A fines de 2013, los servidores GRID se introdujeron en Amazon Web Services [91] [92] . Presentada en el mismo año, la solución de servidor de juegos en la nube funcionaba con un principio similar, brindando a los usuarios una cantidad fija de potencia de procesamiento para un rendimiento estable del sistema en los juegos modernos. Para reducir la latencia de la red, se implementó la compresión de video en sus propios servidores y se optimizaron los controladores tanto para el servidor como para el equipo del cliente [93] [94] . Las soluciones de Nvidia para operadores de servicios de juegos han sido consumidas por muchos servicios de juegos: Gaikai , Playcast , Ubitus, CiiNow, G-cluster , LiquidSky y Playkey. La compañía usó sus propias soluciones en su propio servicio en la nube para propietarios de dispositivos de juego de la línea Shield: GeForce GRID (más tarde, GeForce NOW) [95] [96] .
GeForce NOW de 2018 es la tercera iteración del servicio de juegos en la nube (transmisión de juegos de PC desde la nube), que la compañía ha estado desarrollando desde principios de la década de 2010 [97] . En 2012, la empresa lanzó la solución de servidor GeForce GRID, que permitía ejecutar juegos en el hardware de alto rendimiento de la empresa y transmitir el juego al dispositivo del usuario. El primer socio de Nvidia en implementar GeForce GRID en sus servidores fue el servicio de distribución digital Gaikai , que luego fue comprado por Sony [98] . La prueba beta de su propio servicio en la nube, diseñado para usuarios de dispositivos de la línea Shield, la empresa comenzó en el otoño de 2013 [99] . Como señaló la publicación de tecnología The Verge , incluso entonces GRID (como servicio de transmisión de juegos) fue significativamente superior a alternativas como Gaikai y OnLive [100] . Durante el período de prueba, Grid siguió siendo gratuito para los usuarios y, a partir de abril de 2015, la biblioteca del servicio incluía 47 juegos para PC, en su mayoría de clase AAA [101] . Al final de los meses de prueba en el otoño de 2015, la compañía relanzó el servicio de transmisión de juegos bajo la marca GeForce NOW con una suscripción paga a los juegos del catálogo integrado y la posibilidad de comprar otros juegos a través del servicio de distribución digital [ 102] [103] . La geografía de GeForce NOW en el momento del reinicio incluía Europa (incluida la parte occidental de Rusia ), América del Norte y Japón [104] . GeForce NOW ha recibido repetidamente altas calificaciones en la prensa de juegos, y la principal queja en su contra fue que no estaba disponible fuera del ecosistema Shield. En 2017, la compañía comenzó a probar GeForce NOW como un modelo de servicio informático de alquiler para ejecutar juegos, disponible en cualquier dispositivo, incluidas las PC con OS X y Microsoft Windows (mientras que los usuarios de Shield nuevamente recibieron acceso gratuito al servicio). En 2017, comenzaron las pruebas de la nueva GeForce NOW en Mac; en enero de 2018, la versión beta del servicio estuvo disponible para los propietarios de PC con Windows [105] . Mediante el uso de aceleradores de gráficos Tesla P40 con 24,5 gigabytes de VRAM en el lado del servidor, el servicio pudo proporcionar un rendimiento de gráficos equivalente al uso de una GeForce GTX 1080 en el dispositivo de un usuario con una resolución de hasta 2560 × 1600 [106] . Con la nueva GeForce NOW, los usuarios han perdido el acceso al catálogo de juegos por suscripción, pero han podido ejecutar cualquier juego de los servicios de distribución digital Steam , Uplay o Battle.net [107] [108] en una PC virtual .
Un nuevo mercado para la empresa se abrió en 2009, cuando varios grupos de investigación descubrieron que las GPU eran mucho más eficientes para tareas de aprendizaje profundo. El profesor de la Universidad de Stanford, Andrew Ng , señaló en ese momento que las soluciones basadas en GPU podrían ser 100 veces más eficientes que las soluciones basadas en CPU x86 [109] .
La compañía presentó la primera supercomputadora para resolver problemas de aprendizaje profundo AI DGX-1 en la conferencia GTC en abril de 2016, simultáneamente con el anuncio del acelerador de computación Tesla P100. La primera versión del DGX-1 incluía 8 tarjetas P100 con un rendimiento combinado de 170 teraflops. Su configuración incluía 2 líneas de Ethernet de 10 gigabits y 4 InfiniBands con un bus EDR y una velocidad de unos 100 gigabits por segundo. El DGX-1 fue la primera solución integral de aprendizaje profundo y vino con un conjunto de software especializado, incluida la plataforma del sistema de capacitación GPU de aprendizaje profundo (DIGITS) y la biblioteca CUDA Deep Neural Network (cuDNN). La computadora salió a la venta en junio de 2016 por $129,000 [110] . Un año después, junto con el anuncio de los aceleradores Tesla V100 basados en la nueva arquitectura Volta, la empresa presentó un DGX-1 actualizado con 8 tarjetas V100, así como un DGX Studio con 4 tarjetas V100 y menos RAM. El DGX-1 actualizado, que salió a la venta a un precio de 149 mil dólares, tuvo un rendimiento de 960 teraflops en tareas de aprendizaje profundo, el DGX Station con un rendimiento de 490 teraflops recibió un precio de 69 mil [111] [112] .
La empresa logró un avance fundamental en el rendimiento de hasta 2 petaflops en el DGX-2, demostrado en el GTC en marzo de 2018. La nueva computadora utilizó 16 aceleradores Tesla V100, combinados con una nueva interfaz NVSwitch con un ancho de banda de 2,4 terabytes por segundo; según Jensen Huang, esta velocidad sería suficiente para transmitir simultáneamente 1440 películas. En total, el nuevo producto contó con 82 mil núcleos CUDA, más de 100 mil núcleos Tensor y 512 gigabytes de memoria de alto ancho de banda del estándar HBM 2. veces mayor que en sus propias decisiones hace 5 años. El DGX-2 salió a la venta por $399,000 [113] [114] .
El desarrollo de sistemas en un chip (SoC) destinados a su uso en dispositivos móviles, la empresa lo retomó tras la adquisición en 2003 del desarrollador de gráficos discretos para PDA MediaQ. Su trabajo se utilizó para crear una línea de chips GoForce , que han encontrado aplicación en dispositivos de Motorola y otros fabricantes. En 2006-2007, la empresa también adquirió la empresa de software de gráficos Hybrid Graphics y sin fábrica un antiguo proveedor de sistemas en un chip para Apple iPod . La experiencia acumulada y las tecnologías adquiridas se utilizaron en la nueva línea de chips Tegra , que combinaba un procesador de propósito general con arquitectura ARM y su propio procesador gráfico de bajo consumo. En la primera generación de sus SoC, presentada en 2008, la empresa lanzó dos series de chips: Tegra APX 2500 para teléfonos inteligentes y los modelos 600 y 650 , diseñados para competir con Intel Atom en el nicho de los dispositivos de Internet móvil (es decir, PDA enfocados sobre navegación web y entretenimiento) y smartbooks [115] . La primera generación de Tegra encontró su camino en los reproductores multimedia Zune HD de Microsoft y en los reproductores multimedia YP-M1 de Samsung , y el primer teléfono inteligente basado en la plataforma fue el Microsoft KIN [116] [117] . Sin embargo, la primera generación de Tegra no fue muy utilizada: la apuesta por los smartbooks y las PDA avanzadas, que no encontraron un mercado masivo, afectó [118] .
Mucho más exitoso fue el sistema Tegra 2 en un chip presentado en 2011 [119] . El potente Tegra 2 con soporte para gráficos 3D se usó en muchas tabletas y teléfonos inteligentes de 10 pulgadas de Acer , Asus , Motorola , LG , Toshiba y otros fabricantes y siguió siendo relevante incluso después de varios años [120] . El éxito de la segunda generación de SoC fue repetido por Tegra 3 , que recibió un acelerador de gráficos más potente y un núcleo de procesador adicional para cálculos simples. Tegra 3 se instaló en Google Nexus 7 , tabletas Lenovo , Asus y Acer , teléfonos inteligentes HTC y LG, así como en computadoras portátiles convertibles que ejecutan el sistema operativo Windows RT : Microsoft Surface y Lenovo IdeaPad Yoga 11. En 2013, la compañía presentó Tegra 4 , basado en el cual desarrolló sus propias consolas de juegos bajo la marca Shield [121] . Sin embargo, la empresa perdió gradualmente interés en el competitivo mercado masivo de dispositivos de consumo y se volvió a centrar en áreas en las que se demandaba el alto rendimiento de Tegra: las consolas de juegos y el mercado del automóvil [122] . En 2012, NVIDIA acordó con Audi usar Tegra en paneles de control y sistemas de entretenimiento para automóviles, y en 2013 comenzó a cooperar con Tesla y Lamborghini [13] [123] .
Los largos ciclos de producción de los fabricantes de automóviles han sido de gran ayuda para Nvidia, que ha encontrado uso en automóviles tanto para diseños nuevos como para los Tegra 2 y Tegra 3 más antiguos [124] . Introducido en 2014, el sistema Tegra K1 en un chip se posicionó originalmente como una plataforma para computadoras a bordo y sistemas de vehículos no tripulados , y la próxima generación de Tegra X1 no estaba diseñada para su uso en dispositivos electrónicos móviles en absoluto [125] [ 126] .
En el Consumer Electronics Show de enero de 2015, junto con el anuncio del sistema en chip Tegra X1, la empresa presentó su propia solución completa para la industria automotriz: la computadora de tablero Drive CX basada en el chip X1, el Drive Herramienta de desarrollo de la interfaz del panel de control de Studio y el piloto automático integrado Drive PX, que usaba 2 SoC X1 a la vez [127] . A diferencia de ADAS (Advanced Driver Assistance System, sistema ruso avanzado de asistencia al conductor ) que había en el mercado en ese momento, Drive PX se centró en su uso en automóviles, comenzando desde la categoría de precio medio [128] . Desde la primera versión, Drive PX admitía el funcionamiento de 12 cámaras HD separadas a la vez, cuya información era procesada por una red neuronal artificial y reconocía otros vehículos, peatones, señales de tráfico y otra información [129] . En la GPU Technology Conference de la primavera de 2015, los representantes de NVIDIA hablaron sobre el proceso de aprendizaje de Drive PX AI y señalaron que, basándose en la experiencia de muchos accidentes simulados, le enseñaron a evitar obstáculos y a tener en cuenta todos los obstáculos posibles [130 ] [131] .
Drive PX de la primera versión tenía un rendimiento de cálculo de 2,3 teraflops, y la computadora Drive PX 2 presentada en CES 2016 logró llevar esta cifra a 8 teraflops. Este rendimiento ya era suficiente para pilotar automáticamente un automóvil en función de los datos de 12 cámaras, radar , lidar y otros sensores [132] . El Drive PX 2 actualizado aprendió a mostrar información detallada sobre los alrededores del automóvil en la pantalla en tiempo real y, cuando se conecta a Internet , complementarlos con información sobre la situación del tráfico, el estado de la carretera y otros factores [133] . En la GPU Conference de abril de 2016, NVIDIA presentó vehículos de demostración de Audi , Volvo y BMW equipados con Drive CX y Drive PX [134] . En enero de 2017 en CES 2017, NVIDIA y Audi anunciaron planes para lanzar un automóvil de producción con IA (presumiblemente el Audi Q7 ) para 2020. La compañía de desarrollo también presentó su propio automóvil autónomo BB8, llamado así por un droide astromecánico del universo de Star Wars , y utilizado para probar tecnologías de conducción autónoma [135] [136] .
En febrero de 2017 tuvo lugar una carrera de prueba del campeonato de coches eléctricos no tripulados Roborace , en la que los equipos están representados por coches tecnológicamente idénticos con diferentes plataformas de software de control. Ambas máquinas de prueba, DevBot 1 y DevBot 2, se basaron en Drive PX 2 [137] . En otoño de 2017, en la GPU Conference de Múnich , la empresa presentó un prototipo de furgoneta de correo autónoma desarrollada por ZF Friedrichshafen AG junto con Deutsche Post DHL , y representantes de la empresa tecnológica rusa Yandex hablaron sobre su propio coche autónomo. basado en el Toyota Prius V y Drive PX 2 [138] [139] . Además, en la conferencia, Jensen Huang presentó una versión mejorada de Drive PX: Drive PX Pegasus, desarrollada en conjunto con otras 25 empresas de tecnología y fabricantes de automóviles y con un rendimiento de 320 teraflops, permite crear un vehículo no tripulado de 5.º nivel de autonomía (sin necesidad de participación humana en la conducción) [ 140] [141] . Además, hasta agosto de 2018, las computadoras Drive PX se usaban en los autos eléctricos Tesla [142] [143] .
En marzo de 2018, después de un accidente fatal en el que un Uber autónomo golpeó a una ciclista, creyendo erróneamente que era un obstáculo menor que no requería una respuesta, la firma anunció que dejaría de probar sus autos autónomos en la vía pública [ 144] [145] . Una semana después, en su propia conferencia de tecnología, la empresa presentó la plataforma en la nube Drive Pegasus, diseñada para probar algoritmos de piloto automático en condiciones simuladas. El sistema se basa en dos componentes. El primero es un servidor basado en GPU Nvidia que ejecuta el entorno de simulación Drive Sim, que crea flujos de datos para las cámaras, el radar, el lidar y otros sensores del vehículo y un entorno de prueba fotorrealista. El segundo es la computadora de a bordo Drive Pegasus para ejecutar el piloto automático AI. Este paquete le permite simular cualquier situación en la carretera, incluidos escenarios improbables y condiciones climáticas extremas, y realizar millones de pruebas por día sin riesgo para otros usuarios de la carretera [146] [147] [148] .
A principios de 2013, en el Consumer Electronics Show , la compañía anunció su propia consola de juegos, cuyo nombre en código era Project Shield. Cuando el dispositivo salió a la venta, la palabra " Proyecto " se había eliminado del título [149] . SHIELD era un formato de gamepad con una pantalla táctil desplegable de 5 pulgadas, ejecutaba el sistema operativo Android , descargaba juegos de la tienda Google Play , la propia tienda de contenido digital de TegraZone y admitía la tecnología GameStream: transmisión de juegos desde una PC equipada con una GPU GeForce sobre la microarquitectura de Kepler. Además de jugar en su propia pantalla, SHIELD permitía la salida HDMI a un monitor o pantalla de TV, lo que lo convertía en el dispositivo con la biblioteca de juegos más grande y la experiencia de juego más amplia del mercado [150] . La lista de juegos que recibieron soporte para el controlador SHIELD incluyó alrededor de 2 docenas de títulos, incluidos proyectos AAA como Bioshock Infinite , Need for Speed: Most Wanted , Call of Duty: Black Ops 2 , Team Fortress 2 , Grand Theft Auto: Vice City y Tácticas ARMA [151] [152] .
En 2014, la empresa presentó Shield Tablet, que adopta la forma de una tableta tradicional con un controlador inalámbrico y es uno de los dispositivos Android de mayor rendimiento en el mercado [153] . Además de GameStream, el dispositivo recibió soporte para el servicio de juegos en la nube Grid para transmitir juegos de PC desde la nube de Nvidia (luego rebautizada como GeForce Now), y también fue optimizado para el motor de gráficos Unreal Engine [154] . En el momento del lanzamiento, la tableta SHIELD resultó ser un dispositivo relativamente costoso y, debido a problemas con el sobrecalentamiento de la batería, la empresa tuvo que reemplazar algunos de los dispositivos para los usuarios. En 2015, la compañía lanzó un modelo actualizado con "enfermedades infantiles" corregidas bajo el índice K1 que, con una configuración idéntica a su predecesor, tenía un precio de venta significativamente más bajo [155] [156] .
Además, en 2015, la compañía lanzó un dispositivo de juego en formato de reproductor multimedia de transmisión (decodificador), llamado SHIELD Android TV o simplemente SHIELD (el SHIELD original de 2013 pasó a llamarse SHIELD Portable). El nuevo SHIELD fue el primer dispositivo alimentado por el procesador Tegra X1, con Android TV , compatible con GameStream y Grid (GeForce Now) y salida de video Ultra HD (4K) . Además del contenido de Android TV, el dispositivo recibió soporte para los servicios de transmisión Netflix , Hulu Plus , YouTube , Amazon Instant Video y Sling TV , Russian Okko, Megogo.net , Amediateka , Rutube y muchos otros, así como soporte para streaming desde dispositivos Android Google Cast [157] [158] . La actualización de 2017 lleva a SHIELD a un cuerpo un 40 % más pequeño, soporte para nuevos servicios de transmisión, integración completa con el asistente de voz Google Assistant y soporte para un sistema de hogar inteligente basado en la plataforma Samsung SmartThings en modo concentrador, a través del cual los dispositivos y los sensores están conectados e interactuados [159] [160] .
En marzo de 2014, la compañía presentó su primera computadora integrada Jetson TK1 basada en Tegra K1 especialmente diseñada para su uso en drones autónomos, cámaras inteligentes, robots y otros dispositivos inteligentes. A pesar de su modesto tamaño, el Jetson TK1, con un rendimiento de 326 gigaflops, era comparable en potencia a las estaciones de trabajo tradicionales, lo que permitió que el nuevo producto y las versiones posteriores de Jetson se posicionaran como "las primeras supercomputadoras móviles" [161] . El Jetson TX1, basado en el sistema en un chip Tegra X1, aumentó el rendimiento a 1 teraflops y el tamaño del dispositivo en sí se redujo al tamaño de una tarjeta de plástico [162] . Con el Jetson TX2, basado en el procesador Tegra X2 actualizado, NVIDIA logró duplicar el rendimiento manteniendo el mismo consumo de energía [163] . La empresa logró un avance fundamental en la potencia informática en junio de 2018 con la computadora Jetson Xavier, basada en la próxima generación de chips Tegra. Un sistema con un rendimiento de 30 teraflops con un consumo de energía de un tercio del de una lámpara incandescente , fue presentado como la primera computadora del mundo para robots inteligentes. La placa Jetson Xavier albergaba un procesador ARM de 8 núcleos para computación general, una GPU Tensor Core para tareas de aprendizaje profundo y bloques de procesamiento de video especializados [164] . Jetson Xavier se presentó como parte de la plataforma Isaac, que también incluye un conjunto de API y herramientas de desarrollo para conectarse a sensores y cámaras 3D Isaac SDK, la biblioteca del acelerador de IA Isaac IMX y el entrenamiento de IA Isaac Sim [165] [166] y probar el entorno virtual .
Desde 2009, la compañía ha estado organizando la Conferencia de tecnología GPU (GTC) anual, la primera de las cuales se llevó a cabo en San José a fines de septiembre y principios de octubre de 2009. Durante la década, la geografía del evento se ha expandido significativamente: en 2018, además del GTC en Silicon Valley y Washington, se realizaron conferencias regionales en Taiwán , Japón , Europa , Israel y China [167] . Si inicialmente el tema principal de GTC era el desarrollo y el uso de GPU para acelerar la computación, desde mediados de la década de 2010, el enfoque se ha desplazado hacia el desarrollo del aprendizaje automático y el uso de IA [168] [169] .
En 2009, la empresa estableció el Programa GPU Ventures para invertir en nuevas empresas que trabajan en formas de aplicar las GPU a la informática general . Como parte del programa, la empresa planeó brindar inversiones de 0,5 a 5 millones de dólares a proyectos prometedores relacionados con procesamiento de video, I+D , finanzas y otras áreas de aplicación de sus propias tecnologías [170] . A partir de 2018, la cartera del GPU Ventures Program incluía Abeja, un sistema de análisis minorista basado en la nube , el desarrollador de tecnología de automóviles autónomos Optimus Ride, el desarrollador de IA de asistente de voz Soundhound, la empresa meteorológica TempoQuest, el desarrollador de tecnología de visión por computadora para el cuidado de la salud Zebra Medical y Datalogue, una empresa que desarrolla algoritmos de minería de datos [171] .
En 2015, para superar la escasez de especialistas en el campo del procesamiento de datos y el aprendizaje profundo, la empresa anunció su propio programa educativo: el Deep Learning Institute (DLI) [172] . Las primeras sesiones educativas se realizaron como parte del GTC, y en 2016, junto con las plataformas de educación masiva en línea Coursera y Udacity , lanzaron cursos en línea sobre aprendizaje profundo e IA. Los desarrolladores de Adobe , Alibaba y SAP recibieron capacitación en DLI , y también se realizaron cursos en los sitios de grandes instituciones educativas y de investigación: los Institutos Nacionales de Salud de EE. UU. , el Instituto Nacional de Ciencia y Tecnología de EE. UU. , el Centro de Supercomputación de Barcelona , el Instituto Politécnico de Singapur y el Instituto Indio de Tecnología de Bombay [173] [174] . Los programas educativos en DLI se construyen alrededor de las áreas de aplicación de las tecnologías de la compañía en automóviles autónomos, atención médica, robótica, finanzas y clases prácticas impartidas por especialistas de Nvidia y empresas asociadas y personal universitario [175] [176] [177] .
En junio de 2016, la empresa presentó el Programa de inicio de Nvidia para apoyar a las nuevas empresas que trabajan en el campo de la inteligencia artificial y el procesamiento de datos. Los participantes del programa reciben acceso anticipado a software y hardware, asistencia de especialistas e ingenieros certificados de la empresa, capacitación en DLI e inversiones en el marco del Programa GPU Ventures [178] . Ya en 2017, más de 1300 empresas participaron en el programa, en 2018 el número de participantes en el programa llegó a 2800. Como parte de la conferencia anual GTC, la empresa selecciona a varios ganadores del programa que han demostrado logros sobresalientes en sus campos. En 2017, los ganadores del premio fueron Genetesis , el desarrollador del sistema de diagnóstico de dolor torácico Genetesis, el sistema antimalware Deep Instinct , y los autores de la tecnología de análisis de sangre basada en la red neuronal Athelas ; redes neuronales, sistema de automatización minorista AiFi y la startup de logística Kinema Systems [179] [180] .
La sede de la empresa se encuentra en Santa Clara , California . El primer edificio del complejo, llamado "Endeavor" ( Eng. Endeavor en honor al último transbordador espacial de la NASA ), fue erigido en 2010-2017 según el proyecto de la oficina de arquitectura Gensler . Las habitaciones dentro del "Endeavor " se nombran, en referencia a la ciencia ficción: "Altair IV" (el planeta de la película " Forbidden Planet "), " Skaro " (el planeta de la serie de ciencia ficción " Doctor Who "), " Skynet " (inteligencia artificial de la serie de películas Terminator ), "Vogsphere" (el planeta natal de la raza Vogon de las obras de Douglas Adams ), Hott (un planeta del universo de Star Wars ), " Mordor " (la región de la Tierra Media , la posesión de Sauron del legendarium de John Tolkien ), " Metrópolis " (una referencia a la película muda de ciencia ficción del mismo nombre de Fritz Lang ) [13] .
Para 2018, la empresa estaba construyendo un segundo edificio llamado "Voyager" ( ing. Voyager ), que sirve como referencia a la nave espacial del mismo nombre y al programa para explorar los planetas distantes del sistema solar . Las primeras letras de los nombres de los edificios de la nueva sede, el latín En y V también suman Nv , las primeras letras del nombre de la empresa. El área de Endeavour es de 500 mil pies² (unos 46,5 mil m²), el área de diseño de la Voyager es de 750 mil pies² (unos 69,6 mil m²). Endeavour alberga a más de 2.000 empleados de la empresa, en total, 5.000 empleados trabajan en Santa Clara, y la plantilla total de la empresa es de 11,5 mil personas [13] [181] [182] .
A febrero de 2018, los puestos principales de la empresa estaban ocupados por [11] :
Según los resultados del año fiscal 2018, los ingresos de la compañía ascendieron a 9,714 mil millones de dólares, utilidad operativa - 3,21 mil millones, utilidad neta - 3,047 mil millones En comparación con el año fiscal 2017, los ingresos aumentaron en un 41%, la utilidad operativa - en un 66%. , beneficio neto - en un 83 %. La principal fuente de ingresos de la empresa es su negocio de GPU, que en conjunto generó $8140 millones (un 40 % más año tras año), incluidos $1930 millones en ingresos de soluciones de centros de datos (Tesla, Grid, DGX, un 133 % más que en 2017) y $ 934 millones aportados por el negocio de visualización profesional (un 12% más en comparación con 2017). Las soluciones basadas en sistemas en chip Tegra aportaron a la compañía 1.530 millones (un 86% más que un año antes), de los que 558 millones fueron ingresos por la instalación de sistemas de infoentretenimiento para automóviles, ordenadores de a bordo Drive PX y desarrollo para la conducción autónoma coches [26] .
Para 2018, la empresa emitió 945 millones de acciones ordinarias con 1 voto. Desde 1999, la empresa ha realizado 4 desdoblamientos de acciones : en 2000, 2001 y 2006, los papeles se desdoblaron en una proporción de 2 a 1, en 2007 el “split” se realizó en una proporción de 3 a 2 [184] . En 2021, 14 años después, la empresa realizó otro split 4:1, el mayor de su historia [185] .
La empresa posee el 35,9% de sus acciones, el 61,4% cotiza en la bolsa NASDAQ . Los principales accionistas son Fidelity Management & Research Co. (7,94 %), The Vanguard Group (7,14 %), BlackRock Fund Advisors (4,46 %), SSgA Funds Management (3,87 %), el fundador Jensen Huang (3,6 %), T. Rowe Price Associates, Inc. (1,81%), JPMorgan Investment Management, Inc. (1,3 %), Geode Capital Management (1,29 %) y Jennison Associates (1,16 %) [184] .
Por primera vez después de la oferta pública inicial en 1999, la empresa pagó dividendos en 2006, el siguiente pago siguió en 2012, desde noviembre de 2012, los dividendos a los accionistas se pagan trimestralmente .
Desde principios de la década de 2000, la empresa comenzó a mostrar interés en el mercado ruso de procesadores gráficos, en el que ocupaba la posición de líder indiscutible. En 2003, comenzó a operar una oficina de Nvidia en Moscú , cuya área de responsabilidad incluía los países de Europa, Medio Oriente y África . A través de la oficina rusa, la firma participó en la selección de programadores locales y la cooperación con los desarrolladores para optimizar los juegos lanzados y en desarrollo. Además, se abrió un laboratorio sobre la base de la oficina rusa para probar juegos, software para visualización profesional y otras aplicaciones que utilizan la potencia informática del procesador gráfico. Para 2014, el laboratorio de Moscú fue uno de los 4 centros de datos más grandes de la empresa y representó hasta el 70% de todos los juegos probados por la empresa. Los ingenieros de la oficina participan en muchos proyectos globales de la empresa, centrándose en el desarrollo y desarrollo del componente de software de soluciones para los mercados de juegos y profesionales, incluido el mercado de IA. Desde 2011, la oficina rusa se encuentra en el centro de negocios Dvintsev en la calle Dvintsev en Moscú [186] [187] [188] .
El 7 de marzo de 2022, la empresa anunció su retirada de los mercados ruso y bielorruso debido a los acontecimientos de Ucrania en 2022. [189] .
En febrero de 2003, estalló una disputa entre Futuremark y Nvidia sobre una prueba de rendimiento de la tarjeta de video: Futuremark acusó a NVidia de ajustar los controladores de la tarjeta de video específicamente para aumentar el rendimiento en la prueba [190] . Durante varios meses, Futuremark no reconoció los resultados de sus pruebas con la última versión del controlador Nvidia [191] . Finalmente, después de haber prometido públicamente en su sitio web oficial publicar una nueva versión de la prueba que bloquea estos mecanismos de sintonización y acusar a NVidia de ofuscar deliberadamente el código del controlador Detonator FX, Futuremark retiró su declaración un día después, explicándolo como un error personal del fabricante. desarrollador. Como señaló la prensa, esto permitió a Futuremark evitar juicios reputacionales [192] .
En 2012, Linus Torvalds criticó a Nvidia por la mala colaboración con los desarrolladores de Linux . En su reunión con estudiantes en la Universidad Aalto en Finlandia, habló obscenamente sobre Nvidia y la llamó la peor compañía con la que tiene que lidiar la comunidad Linux [193] .
En 2014, el director de relaciones públicas de AMD , Robert Hallcock, acusó a Nvidia de luchar contra la competencia con la biblioteca de desarrollo de GameWorks . Según él, GameWorks evita artificialmente que los desarrolladores optimicen el código del juego para el hardware de los fabricantes de tarjetas de video de la competencia [194] .
En 2015, la empresa fue sorprendida ocultando las características reales de su dispositivo estrella GeForce GTX 970. Investigadores independientes descubrieron que el procesador de gráficos no tiene 64 ROP, como afirma el fabricante, sino solo 56. También indicaron que la memoria de video del dispositivo funciona según el esquema 3,5 + 0,5 GB, en el que parte de la memoria GDDR5 funciona a una velocidad deliberadamente más baja que su unidad principal, y la caché de segundo nivel se recorta de 2 MB a 1,75 MB [191] .
En febrero de 2019, AMD criticó la nueva tecnología inteligente anti-aliasing patentada Deep Learning Super-Sampling (DLSS) de Nvidia. Los representantes de AMD creen que los estándares abiertos SMAA y TAA funcionan bien en aceleradores de diferentes proveedores y, al mismo tiempo, están libres de las desventajas de DLSS [195] .
en redes sociales | ||||
---|---|---|---|---|
Foto, video y audio | ||||
sitios temáticos | ||||
diccionarios y enciclopedias | ||||
|
nvidia | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
GPU ( comparación ) _ |
| ||||||||||
Conjuntos de chips de placa base ( comparación ) _ |
| ||||||||||
Otro |
|
Open Handset Alliance | Empresas miembro de la|
---|---|
Operadores celulares | |
Software | |
Semiconductores | |
Celulares | |
Comercialización |
|