estacion-de-trabajo some-terminal

La GPU de 2020 que humilla a tarjetas de 3.500 € en IA local — y cuesta 650 €

La RTX 3090 usada ofrece 24 GB de VRAM por ~650 €, ideal para correr modelos de IA de hasta 32B parámetros en casa. Te contamos cómo montarla.

ver producto ~650€
La GPU de 2020 que humilla a tarjetas de 3.500 € en IA local — y cuesta 650 €

💡 Antes de empezar Necesitas: Un PC de sobremesa con fuente de alimentación de 750W o más, una placa base con slot PCIe x16 libre, y Windows 10/11 o Linux Tiempo estimado: Una tarde — entre montar la tarjeta, instalar drivers y tener tu primer modelo funcionando Nivel: Necesitas perder el miedo a la terminal — pero nada de soldaduras ni líos raros

El secreto peor guardado de la comunidad de IA local

Mientras NVIDIA vende su nueva RTX 5090 por 3.500 € con 32 GB de VRAM, hay gente en r/LocalLLaMA — el subreddit donde se junta la comunidad que corre inteligencia artificial en sus propios ordenadores — que lleva meses repitiendo el mismo consejo: compra una RTX 3090 usada. Por unos 650 € en eBay te llevas 24 GB de VRAM — la memoria dedicada de la tarjeta gráfica, que es lo que determina qué modelos de IA puedes cargar — y eso es suficiente para correr modelos que hace dos años requerían un servidor de empresa.

Qué es exactamente

La RTX 3090 salió en septiembre de 2020 como la tarjeta gráfica más potente de NVIDIA para consumidores. Su chip GA102 tiene 10.496 núcleos CUDA y, lo que nos importa aquí, 24 GB de memoria GDDR6X con un ancho de banda de 936 GB/s. Cuando se lanzó costaba 1.549 € y la compraban gamers y creadores de contenido. Hoy, esos gamers se han actualizado a tarjetas más nuevas y las están vendiendo en eBay por una fracción del precio.

Es una tarjeta grande — ocupa entre 2.5 y 3 slots de tu torre — y hambrienta: consume hasta 350W bajo carga. Eso explica por qué necesitas una fuente de alimentación seria. Pero ese consumo tiene una contrapartida brutal: esos 24 GB de VRAM son exactamente los mismos que lleva la RTX 4090 (que todavía cuesta más del doble) y solo 8 GB menos que la RTX 5090 a cinco veces el precio.

Por qué nos interesa — el ratio VRAM/euro es imbatible

En IA local, la VRAM es la moneda. Los modelos de lenguaje — los LLM, como los que hay detrás de ChatGPT — necesitan cargarse enteros en la memoria de la GPU para funcionar rápido. Cuanta más VRAM tengas, más grande puede ser el modelo. Y aquí es donde los números de la RTX 3090 son obscenos:

  • ~27 €/GB de VRAM (650 € ÷ 24 GB). La RTX 5090 sale a ~109 €/GB. La 4090 usada ronda los 60 €/GB.
  • Carga modelos de hasta 32 mil millones de parámetros — como DeepSeek-R1 32B o Qwen 3 32B — en formato cuantizado Q4_K_M (una técnica que comprime el modelo para que quepa en menos memoria sin perder demasiada calidad).
  • Modelos más pequeños como Llama 3.1 8B vuelan: usuarios en Hackaday y XDA reportan ~100 tokens por segundo — es decir, genera texto más rápido de lo que puedes leerlo.

¿Y qué puedes hacer con esto en casa? Un servidor de IA personal con Open WebUI — una interfaz web tipo ChatGPT pero que funciona en tu ordenador — conectado a Ollama. Puedes tener un asistente que responde preguntas sobre tus documentos, genera código, resume PDFs… todo sin que un solo byte salga de tu red local. También puedes hacer fine-tuning — entrenar un modelo existente con tus propios datos — de modelos de hasta 13B parámetros, algo impensable con tarjetas de 8 o 12 GB.

Frente a las alternativas: dos RTX 3060 de 12 GB cuestan lo mismo pero te obligan a repartir el modelo entre dos tarjetas, que es un dolor de cabeza. Una Mac con Apple Silicon M4 con 24 GB unificados rinde bien pero cuesta el triple. La 3090 sigue siendo, como la llaman en XDA Developers y CoreLab, la value king de la IA local en 2026.

Cómo empezar

Una vez tengas la tarjeta instalada físicamente en tu PC (encaja en cualquier slot PCIe x16, solo asegúrate de conectar los dos cables de 8 pines de la fuente), necesitas dos cosas: los drivers de NVIDIA y Ollama — una app gratuita que te permite correr modelos de IA en tu propio ordenador sin depender de internet.

Primero, descarga los drivers de NVIDIA desde su web oficial. Después, instala Ollama desde ollama.com — tiene instalador para Windows y un comando para Linux.

Con Ollama instalado, abre la terminal de tu ordenador (en Windows busca “cmd” o “PowerShell” en el menú inicio) y escribe esto para descargar y correr un modelo potente de 32B parámetros:

ollama run qwen3:32b

La primera vez tardará un rato en descargar el modelo (~18 GB). Después, tendrás un chatbot de IA corriendo entero en tu máquina. Escríbele lo que quieras directamente en la terminal.

Si quieres una interfaz más visual tipo ChatGPT, instala Open WebUI. Con Docker — una herramienta que empaqueta aplicaciones para que se instalen sin complicaciones — es un solo comando:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda

Abre tu navegador en http://localhost:3000 y ya tienes tu ChatGPT privado.

Lo que no te van a contar

Comprar hardware usado tiene sus riesgos. La RTX 3090 fue la tarjeta favorita de los mineros de criptomonedas entre 2020 y 2022, y muchas unidades llevan miles de horas de uso intensivo. Pide siempre fotos de la tarjeta funcionando y compra a vendedores con buena reputación en eBay (protección al comprador incluida). El consumo de 350W no es broma: tu factura de luz lo notará si la dejas funcionando 24/7 como servidor. Y prepárate para el ruido — los ventiladores a plena carga suenan como un secador de pelo. Algunos usuarios compran modelos con refrigeración líquida de aftermarket, pero eso sube el precio. Por último, es hardware de 2020: no tiene los Tensor Cores de cuarta generación de las RTX 40xx, así que en tareas específicas como generación de imágenes con Stable Diffusion, una 4090 será notablemente más rápida. Para LLMs, donde el cuello de botella es la VRAM, la diferencia importa mucho menos.

Veredicto

Si quieres correr modelos de IA serios en casa sin gastar más de 700 €, la RTX 3090 usada es la respuesta. No es para ti si necesitas silencio absoluto, si tu fuente no llega a 750W, o si tu torre es compacta — este bicho no cabe en un Mini-ITX. Para todos los demás, es la entrada más inteligente al mundo de la IA local que existe ahora mismo.