La IA generativa, en forma de aplicaciones de modelo de lenguaje grande (LLM) como ChatGPT, generadores de imágenes como Steady Diffusion y Adobe Firefly, y técnicas de representación de juegos como NVIDIA DLSS 3 Body Era, está marcando el comienzo rápidamente de una nueva period de la informática para la productividad. creación de contenido, juegos y más.
En el Compilación de Microsoft conferencia de desarrolladores, NVIDIA y Microsoft exhibieron hoy un conjunto de avances en PC y estaciones de trabajo con Home windows 11 con GPU NVIDIA RTX para satisfacer las demandas de IA generativa.
Más de 400 aplicaciones y juegos de Home windows ya emplean tecnología de IA, acelerada por procesadores dedicados en GPU RTX llamados Tensor Cores. Los anuncios de hoy, que incluyen herramientas para desarrollar IA en PC con Home windows, marcos para optimizar e implementar IA y mejoras en el rendimiento y la eficiencia de los controladores, permitirán a los desarrolladores crear la próxima generación de aplicaciones de Home windows con IA generativa en su núcleo.
“La IA será el principal impulsor de la innovación para los clientes de Home windows en los próximos años”, dijo Pavan Davuluri, vicepresidente corporativo de integración de sistemas y silicio de Home windows en Microsoft. “Al trabajar en conjunto con NVIDIA en las optimizaciones de {hardware} y software program, estamos equipando a los desarrolladores con una experiencia transformadora, de alto rendimiento y fácil de implementar”.
Desarrollar modelos con el subsistema de Home windows para Linux
El desarrollo de IA tradicionalmente ha tenido lugar en Linux, lo que requiere que los desarrolladores realicen un arranque twin de sus sistemas o usen varias PC para trabajar en su sistema operativo de desarrollo de IA mientras siguen accediendo a la amplitud y profundidad del ecosistema de Home windows.
En los últimos años, Microsoft ha estado desarrollando una poderosa capacidad para ejecutar Linux directamente dentro del sistema operativo Home windows, llamada Subsistema de Home windows para Linux (WSL). NVIDIA ha estado trabajando en estrecha colaboración con Microsoft para ofrecer aceleración de GPU y soporte para toda la pila de software program NVIDIA AI dentro de WSL. Ahora los desarrolladores pueden usar PC con Home windows para todas sus necesidades locales de desarrollo de IA con soporte para GPU acelerado marcos de aprendizaje profundo en WSL.
Con las GPU NVIDIA RTX que ofrecen hasta 48 GB de RAM en estaciones de trabajo de escritorio, los desarrolladores ahora pueden trabajar con modelos en Home windows que anteriormente solo estaban disponibles en servidores. La gran memoria también mejora el rendimiento y la calidad para el ajuste fino native de los modelos de IA, lo que permite a los diseñadores personalizarlos según su propio estilo o contenido. Y debido a que la misma pila de software program de IA de NVIDIA se ejecuta en las GPU del centro de datos de NVIDIA, es fácil para los desarrolladores enviar sus modelos a la nube de Microsoft Azure para realizar grandes ejecuciones de capacitación.
Optimice e implemente modelos rápidamente
Con modelos capacitados en la mano, los desarrolladores deben optimizar e implementar IA para dispositivos de destino.
Microsoft lanzó el Oliva de Microsoft cadena de herramientas para la optimización y conversión de modelos PyTorch a ONNX, lo que permite a los desarrolladores aprovechar automáticamente la aceleración de {hardware} GPU como RTX Tensor Cores. Los desarrolladores pueden optimizar modelos a través de Olive y ONNX, e implementar modelos acelerados por Tensor Core en PC o en la nube. Microsoft continúa invirtiendo para hacer que PyTorch y las herramientas y los marcos relacionados funcionen a la perfección con WSL para brindar la mejor experiencia de desarrollo de modelos de IA.
Rendimiento de IA mejorado, eficiencia energética
Una vez implementados, los modelos de IA generativa exigen un rendimiento de inferencia increíble. Los núcleos RTX Tensor ofrecen hasta 1400 Tensor TFLOPS para la inferencia de IA. Durante el último año, NVIDIA ha trabajado para mejorar el rendimiento de DirectML para aprovechar al máximo el {hardware} RTX.
El 24 de mayo, lanzaremos nuestras últimas optimizaciones en los controladores de la versión 532.03 que se combinan con los modelos optimizados para Olive para brindar grandes mejoras en el rendimiento de la IA. Usando un Versión optimizada para Olive de Steady Diffusion generador de texto a imagen con la widespread distribución Automatic1111, el rendimiento se mejora más del doble con el nuevo controlador.
Dado que la IA llega a casi todas las aplicaciones de Home windows, la entrega eficiente de rendimiento de inferencia es basic, especialmente para las computadoras portátiles. Próximamente, NVIDIA presentará la nueva inferencia de bajo consumo Max-Q para cargas de trabajo solo de IA en GPU RTX. Optimiza el rendimiento de Tensor Core mientras mantiene el consumo de energía de la GPU lo más bajo posible, prolonga la vida útil de la batería y mantiene un sistema frío y silencioso. Luego, la GPU puede escalar dinámicamente para obtener el máximo rendimiento de IA cuando la carga de trabajo lo exige.
Únete a la revolución de la IA de PC ahora
Los principales desarrolladores de software program, como Adobe, DxO, ON1 y Topaz, ya han incorporado la tecnología NVIDIA AI con más de 400 aplicaciones y juegos de Home windows optimizados para RTX Tensor Cores.
“La inteligencia synthetic, el aprendizaje automático y el aprendizaje profundo potencian todas las aplicaciones de Adobe e impulsan el futuro de la creatividad. Al trabajar con NVIDIA, optimizamos continuamente el rendimiento del modelo de IA para brindar la mejor experiencia posible a nuestros usuarios de Home windows en las GPU RTX”. — Ely Greenfield, CTO de medios digitales en Adobe
“NVIDIA está ayudando a optimizar el rendimiento de nuestro modelo WinML en las GPU RTX, lo que acelera la IA en DxO DeepPRIME, además de proporcionar una mejor eliminación de ruido y demostración, más rápido”. — Renaud Capolunghi, vicepresidente sénior de ingeniería de DxO
“Trabajar con NVIDIA y Microsoft para acelerar nuestros modelos de IA que se ejecutan en Home windows en GPU RTX brinda un gran beneficio a nuestra audiencia. Ya estamos viendo aumentos de rendimiento de 1,5 veces en nuestro conjunto de software program de edición de fotografías con tecnología de inteligencia synthetic”. — Dan Harlacher, vicepresidente de productos de ON1
“Nuestro extenso trabajo con NVIDIA ha llevado a mejoras en nuestro conjunto de aplicaciones de edición de fotos y movies. Con las GPU RTX, el rendimiento de la IA ha mejorado drásticamente, mejorando la experiencia de los usuarios en PC con Home windows”. — Suraj Raghuraman, jefe de desarrollo de motores de IA en Topaz Labs
NVIDIA y Microsoft están poniendo a disposición varios recursos para que los desarrolladores prueben los mejores modelos de IA generativa en PC con Home windows. Una versión optimizada para Olive del modelo de lenguaje grande Dolly 2.0 está disponible en Hugging Face. Y una versión optimizada para PC de Nvidia Nemo El modelo de lenguaje grande para IA conversacional llegará pronto a Hugging Face.
Los desarrolladores también pueden aprender a optimizar sus aplicaciones de principio a fin para aprovechar al máximo la aceleración de la GPU a través de la NVIDIA AI para acelerar el sitio de desarrolladores de aplicaciones.
Las tecnologías complementarias detrás de la plataforma Home windows de Microsoft y la pila dinámica de {hardware} y software program de IA de NVIDIA ayudarán a los desarrolladores a desarrollar e implementar rápida y fácilmente IA generativa en Home windows 11.
Microsoft Construct se extiende hasta el jueves 25 de mayo. Sintonice para obtener más información sobre Dando forma al futuro del trabajo con IA.