Instalar CUDA en Windows no tiene por qué ser un lío si sabes dónde tocar y qué versiones casar. En esta guía práctica te llevo paso a paso por todo lo necesario para poner en marcha el toolkit, el controlador correcto y las utilidades de verificación, tanto en Windows nativo como usando WSL. La idea es que acabes con tu GPU acelerando de verdad tus cargas de trabajo, sin sorpresas de compatibilidad.
Además de la instalación base, cubriré casos reales y requisitos especiales (como ML.NET Model Builder con dependencias antiguas), alternativas de instalación con Conda y pip, integración con Visual Studio y las pruebas clásicas deviceQuery y bandwidthTest. También verás cómo diagnosticar problemas típicos de drivers, detección de GPU y desajustes de versiones CUDA que suelen frenar a cualquiera la primera vez.
¿Qué es CUDA y por qué importa en Windows?
CUDA es la plataforma y el modelo de programación de NVIDIA para computación paralela que permite descargar a la GPU las partes más intensivas de tus aplicaciones. La CPU se queda lo secuencial y la GPU se encarga de lo masivamente paralelo, cada una con su propia memoria, evitando cuellos de botella y permitiendo trabajo simultáneo.
Las GPU con capacidad CUDA cuentan con cientos o miles de núcleos que ejecutan decenas de miles de hilos. Bibliotecas como cuBLAS, cuDNN y NVCC completan el kit para que puedas compilar, depurar y perfilar tu software acelerado por GPU en Windows.
Requisitos del sistema y compatibilidades en Windows
Antes de nada toca comprobar que el sistema encaja con el toolkit que quieres. En sistemas Windows actuales, CUDA 13.0 U1 soporta: Windows 11 24H2, 23H2, 22H2-SV2; Windows 10 22H2; Windows Server 2022 y 2025.
Compiladores e IDE compatibles: Visual Studio 2022 17.x (MSVC 193x) con C++11/14/17/20 y Visual Studio 2019 16.x (MSVC 192x) con C++11/14/17. El soporte para VS2017 se eliminó en CUDA 13.0 y para VS2015 está deprecado desde CUDA 11.1, así que ajusta tus proyectos.
Importante sobre 32 bits: desde CUDA 12.0 ya no hay toolchain de 32 bits (nativo ni cross). Los drivers seguirán ejecutando binarios de 32 bits en GeForce hasta arquitectura Ada; Hopper ya no soporta 32 bits.
Hardware recomendado: GPU NVIDIA con Compute Capability adecuada para tu versión (para escenarios generales, 3.0 o superior; consulta la lista oficial), memoria suficiente, y en ciertos casos específicos más exigente. Para Model Builder (clasificación de imágenes) se exige al menos 6 GB de VRAM dedicada, mientras que para usos básicos se mencionan mínimos de 4 GB.
Comprobar que tienes una GPU compatible y qué versión tienes

Para verificar el modelo de GPU en Windows: Configuración > Sistema > Pantalla > Configuración avanzada. Ahí verás la marca y modelo bajo Información de pantalla, muy útil para confirmar compatibilidad.
También puedes usar el Administrador de tareas en la pestaña Rendimiento y seleccionar el panel GPU para ver detalles. Si no aparece, abre el Administrador de dispositivos y mira en Adaptadores de pantalla; si falta el driver de NVIDIA, instálalo.
Para comprobar la instalación de CUDA, abre un PowerShell o CMD y ejecuta nvcc --version o nvcc -V. Esto te devuelve la versión del compilador NVCC instalada; si no responde, el PATH del toolkit no está configurado o no se instaló correctamente.
Si necesitas actualizar controladores, GeForce Experience te sugiere las últimas versiones, o descárgalas desde la web oficial de drivers de NVIDIA. Un driver actualizado suele resolver incompatibilidades de toolkit y fallos de detección.
Descargar NVIDIA CUDA Toolkit: formatos e integridad
Ve a la página oficial de descargas de CUDA de NVIDIA y elige Windows. Puedes optar por Network Installer (descarga mínima y luego paquetes a demanda) o Full Installer (todo incluido). El instalador completo viene de perlas en equipos sin conexión o para despliegues empresariales.
Tras descargar, es buena práctica verificar el checksum MD5 publicado para asegurar que el archivo no está corrupto. Si el hash no coincide, vuelve a descargar el instalador y evita dolores de cabeza posteriores.
Desde CUDA 13, el driver de NVIDIA ya no viene dentro del Toolkit. Instala el driver por separado desde la página de controladores de NVIDIA y después el Toolkit; evita mezclar versiones no compatibles.
Instalación en Windows: modo gráfico, silencioso y extracción
Instalación gráfica: ejecuta el instalador y sigue los pasos. Elige ubicación, acepta la licencia y selecciona componentes como Toolkit, Nsight Compute/Systems y ejemplos.
Instalación silenciosa: puedes lanzar el instalador con -s para modo silencioso y añadir parámetros para subpaquetes concretos. Si no quieres reinicio automático, añade -n y gestiona tú el reboot al final.
Extracción manual: con 7-Zip/WinZip puedes extraer el paquete completo para inspeccionar su contenido. El Toolkit queda dentro de la carpeta CUDAToolkit y la integración de Visual Studio en su directorio homónimo; los .dll y .nvi que veas en la raíz del instalable no son ficheros instalables como tal.
Ruta por defecto del Toolkit: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v13.0. Al instalar subpaquetes puedes escoger solo lo que necesitas (por ejemplo, nvcc_13.0 para el compilador, cudart_13.0 para el runtime, cublas_13.0/cublas_dev_13.0, cufft_13.0, curand_13.0, cusolver_13.0, cusparse_13.0, nsight_compute_13.0, nsight_systems_13.0, nvrtc_13.0, nvdisasm_13.0, nvprune_13.0, opencl_13.0, sanitizer_13.0, thrust_13.0, etc.). Así reduces huella y tiempos de instalación.
Desinstalación: todos los subpaquetes se pueden quitar desde Panel de control > Programas y características. Útil si quieres reinstalar una versión limpia o cambiar de rama sin restos.
Modelos de driver en Windows: WDDM vs TCC
En Windows 10 y posteriores, el driver de NVIDIA puede operar en dos modos: WDDM (para dispositivos de display) y TCC (para GPU de cómputo como Tesla o ciertas Titan). Puedes revisar y cambiar el modo con nvidia-smi en tarjetas compatibles; en la mayoría de GeForce modernas se usa WDDM por defecto.
Verificar la instalación: nvcc, samples y pruebas
Comprueba versión de NVCC con nvcc -V. Si el comando funciona, el PATH y la instalación básica están en su sitio.
Clona las CUDA Samples desde GitHub en nvidia/cuda-samples, compílalas y ejecuta deviceQuery. Debe detectar tu dispositivo y devolver un test passed; si no, revisa driver y hardware.
Ejecuta también bandwidthTest para validar el ancho de banda host-device. Si pasan los tests, la comunicación CPU-GPU está OK. Cualquier error aquí suele apuntar a drivers o a la instalación del Toolkit.
Integración con Visual Studio e infraestructura del proyecto
Las samples y tus proyectos se pueden compilar con las soluciones de VS 2019/2022. Las plantillas NVIDIA configuran un proyecto C++ con las Build Customizations de CUDA para tu versión (por ejemplo, CUDA 13.0 Runtime).
Archivos .props del Toolkit: VS 2019 tiene los props en C:\Program Files (x86)\Microsoft Visual Studio\2019\Professional\MSBuild\Microsoft\VC\v160\BuildCustomizations y VS 2022 en C:\Program Files\Microsoft Visual Studio\2022\Professional\MSBuild\Microsoft\VC\v170\BuildCustomizations. Estas rutas permiten que VS encuentre reglas y propiedades de CUDA.
En proyectos nuevos, crea desde Plantillas NVIDIA > CUDA para la versión instalada. En proyectos existentes, ve a Dependencias de compilación > Personalizaciones de compilación y marca tu versión de CUDA o apunta a $(CUDA_PATH) si quieres usar siempre la más reciente instalada.
Tras instalar o desinstalar Toolkits, valida que $(CUDA_PATH) apunta a la carpeta correcta. Accede a Variables de entorno desde Propiedades del sistema para comprobar y ajustar el valor si fuera necesario.
Los archivos con código CUDA deben marcarse como tipo CUDA C/C++. Puedes añadirlos desde Agregar nuevo elemento > NVIDIA CUDA 13.0 > Code CUDA C/C++ en Visual Studio.
Instalar CUDA con Conda y con pip
Conda: NVIDIA publica paquetes en su canal de Anaconda (anaconda.org/nvidia) para instalar el Toolkit completo o versiones anteriores específicas. Para fijar una versión previa, añade la etiqueta de release al comando de instalación y Conda resolverá dependencias.
pip: NVIDIA proporciona Wheels para instalar componentes CUDA principalmente orientados al runtime en Python. Primero instala nvidia-pyindex y asegúrate de tener pip y setuptools actualizados. Puedes incluir la línea correspondiente en tu requirements.txt si lo prefieres.
Metapaquetes en Windows para CUDA 12 (cu12) que tiran de la última versión disponible: entre otros, nvidia-cublas-cu12, nvidia-cuda-cccl-cu12, nvidia-cuda-cupti-cu12, nvidia-cuda-nvcc-cu12, nvidia-cuda-nvrtc-cu12, nvidia-cuda-opencl-cu12, nvidia-cuda-runtime-cu12, nvidia-cuda-sanitizer-api-cu12, nvidia-cufft-cu12, nvidia-curand-cu12, nvidia-cusolver-cu12, nvidia-cusparse-cu12, nvidia-npp-cu12, nvidia-nvfatbin-cu12, nvidia-nvjitlink-cu12, nvidia-nvjpeg-cu12, nvidia-nvml-dev-cu12, nvidia-nvtx-cu12.
Estos metapaquetes instalan paquetes concretos versionados, por ejemplo con sufijo cu129: nvidia-cublas-cu129, nvidia-cuda-cccl-cu129, nvidia-cuda-cupti-cu129, nvidia-cuda-nvcc-cu129, nvidia-cuda-nvrtc-cu129, nvidia-cuda-opencl-cu129, nvidia-cuda-runtime-cu129, nvidia-cuda-sanitizer-api-cu129, nvidia-cufft-cu129, nvidia-curand-cu129, nvidia-cusolver-cu129, nvidia-cusparse-cu129, nvidia-npp-cu129, nvidia-nvfatbin-cu129, nvidia-nvjitlink-cu129, nvidia-nvjpeg-cu129, nvidia-nvml-dev-cu129, nvidia-nvtx-cu129. Recuerda que los Wheels de CUDA no incluyen herramientas de desarrollador, solo runtime.
Usar pip implica que el entorno CUDA queda ligado a tu entorno Python. Si vas a compilar o ejecutar fuera de ese entorno, instala también el Toolkit a nivel de sistema para evitar incoherencias de rutas.
CUDA en WSL: Windows 11 y Windows 10 21H2
Windows 11 y Windows 10 21H2 (y posteriores) permiten ejecutar frameworks y librerías de ML aceleradas por CUDA dentro de WSL. Esto incluye PyTorch, TensorFlow, Docker y NVIDIA Container Toolkit, como si estuvieras en Linux nativo.
Paso 1: instala el driver de NVIDIA habilitado para CUDA en WSL desde la página oficial. Este driver es específico para exponer la GPU dentro de las distribuciones Linux en WSL.
Paso 2: habilita WSL y añade una distribución basada en glibc (Ubuntu/Debian). Actualiza el kernel desde Windows Update y verifica que sea 5.10.43.3 o superior ejecutando wsl cat /proc/version en PowerShell.
Paso 3: sigue la guía de CUDA en WSL de NVIDIA para instalar Toolkit dentro de la distro y/o configurar NVIDIA Docker. Podrás usar los flujos Linux habituales con aceleración y separar perfectamente el entorno del Windows anfitrión.
Escenario real: portátil mixto AMD + NVIDIA y errores con 12.8/11.8
Supongamos un Lenovo Ideapad 5 Pro con AMD Ryzen, iGPU AMD Radeon y dGPU NVIDIA GeForce GTX. Al ejecutar nvidia-smi aparece Driver 526.56 y CUDA Version 12.0, pero al intentar instalar CUDA 12.8 o 11.8 no parece funcionar.
Claves para entenderlo: la línea CUDA Version de nvidia-smi indica la versión máxima de runtime CUDA soportada por tu driver, no el Toolkit instalado. El driver 526.56 es compatible con CUDA 12.0 y 11.8, pero no con 12.8, que requiere un driver mucho más nuevo (rama 55x/56x). Actualiza a un driver reciente (Studio o Game Ready DCH) desde la web de NVIDIA y repite la instalación.
En equipos híbridos, comprueba en el Panel de control de NVIDIA o Configuración de gráficos de Windows que tu app de cómputo use la GPU NVIDIA. Si la dGPU no se usa, nvidia-smi puede dar problemas o los frameworks pueden cargar en la iGPU AMD, que no soporta CUDA. Considera una instalación limpia del driver y verifica que GeForce Experience detecta el hardware.
Requisitos especiales: ML.NET Model Builder (solo clasificación de imágenes)
Para el escenario de clasificación de imágenes con Model Builder, Microsoft exige una pila concreta: CUDA 10.1 y cuDNN 7.6.4. Ojo con esto porque versiones más nuevas no son compatibles con ese flujo específico.
Pasos clave con cuDNN 7.6.4: descarga el ZIP para CUDA 10.1, descomprímelo y copia cudnn64_7.dll desde cuda\bin a C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\bin. No puedes tener varias versiones de cuDNN a la vez; elimina restos de otras versiones para evitar conflictos en ejecución.
Requisitos de hardware en este escenario: al menos una GPU compatible con CUDA y 6 GB de memoria dedicada. Si no tienes GPU local, Model Builder puede entrenar en máquinas virtuales de GPU en Azure, o en último término en CPU, aunque con tiempos de entrenamiento mucho mayores.
Diagnóstico rápido y resolución de problemas frecuentes
La GPU no aparece en Configuración ni en el Administrador de tareas: abre el Administrador de dispositivos, mira en Adaptadores de pantalla e instala el driver adecuado. Sin driver NVIDIA, Windows no expondrá la dGPU a las apps.
Comprobar versión CUDA del sistema: en PowerShell/CMD ejecuta nvcc --version. Si falla, revisa que el Toolkit esté instalado y que el PATH incluya la carpeta bin del Toolkit.
El toolkit no detecta dispositivos CUDA: asegúrate de que el driver está al día y de que tu GPU está en la lista de CUDA-capable. deviceQuery y bandwidthTest son tu termómetro para confirmar que el stack hardware-driver-toolkit responde.
Modo de driver incorrecto para cómputo: en GPU de cómputo, usa nvidia-smi para revisar/alternar TCC si aplica. En la mayoría de GeForce de portátil, WDDM es el modo previsto y no puedes cambiarlo.
Conflictos de dependencias con frameworks Python: si usas Wheels de CUDA vía pip, recuerda que solo cubren runtime y van ligados al entorno virtual. Para compilar extensiones o usar herramientas, instala también el Toolkit del sistema, o emplea Conda para gestionar todo en bloque.
Ejemplos, samples y buenas prácticas
Para validar rendimiento y funcionalidad, compila y ejecuta deviceQuery y bandwidthTest desde las solutions de VS en el repositorio de samples. Las builds suelen dejar los binarios en rutas como CUDA Samples\v13.0\bin\win64\Release si mantuviste valores por defecto.
Para ver de forma visual el potencial de CUDA, ejecuta samples gráficos como particles. Más allá de la demo, te servirán para tomar referencias de uso de memoria compartida y patrones de grid/block en proyectos propios.
Alternativas en la nube con GPU
Si no quieres batallar con controladores locales o necesitas picos de potencia, puedes optar por instancias en la nube con GPU modernas (A100, RTX 4090, A6000, etc.). Estos servicios ofrecen despliegue inmediato, plantillas para PyTorch/TensorFlow y pago por uso, útil para entrenamientos intensivos o pruebas rápidas.
Notas y marcas
La documentación técnica y los paquetes de NVIDIA pueden cambiar sin previo aviso. Verifica siempre las notas de la versión y compatibilidades actualizadas antes de instalar drivers o Toolkits en producción.
OpenCL es una marca de Apple Inc. usada bajo licencia por Khronos Group. NVIDIA y su logotipo son marcas o marcas registradas de NVIDIA Corporation en EE. UU. y otros países.
Con el driver adecuado, el toolkit que toca y un par de pruebas bien hechas, Windows es un terreno sólido para CUDA: puedes desarrollar con Visual Studio, validar con las samples oficiales, ejecutar frameworks de IA en WSL como en Linux y, si te atascas, tirar de instaladores alternativos (Conda/pip) o incluso de la nube para no quedarte colgado; lo importante es alinear versiones de driver y toolkit, confirmar que la GPU NVIDIA es la que se usa de verdad y apoyarte en deviceQuery/bandwidthTest para tener la certeza de que todo está en verde. Comparte este tutorial y más usuarios sabran instalar CUDA en Windows.