65 € y un cable: cómo convertir un mini PC en un servidor de IA que enciendes solo cuando lo necesitas
El dock eGPU Minisforum DEG2 conecta una gráfica potente a tu mini PC por OCuLink. Monta un servidor LLM local por menos de 600 €.
💡 Antes de empezar Necesitas: Un mini PC con puerto OCuLink, una tarjeta gráfica dedicada (recomendado: RTX 5060 Ti o superior), una fuente de alimentación ATX y el dock DEG2. Tiempo estimado: Una tarde — unas 2-3 horas si todo va bien. Nivel: Necesitas perder el miedo a la terminal — no hace falta soldar nada, pero sí conectar cables PCIe y escribir algunos comandos.
Un desarrollador japonés se cansó de pagar suscripciones a APIs de IA. Un fin de semana, conectó una RTX 5060 Ti a un mini PC del tamaño de un libro usando un dock de 65 €, instaló un par de herramientas open source y acabó con un servidor de inteligencia artificial privado al que accede desde el móvil mientras va en el tren. El coste total del invento: menos de 600 €.
Qué es exactamente el Minisforum DEG2
El DEG2 es un dock para eGPU — una caja externa que te permite conectar una tarjeta gráfica de sobremesa a un ordenador que normalmente no podría llevarla, como un mini PC o un portátil. Lo que lo hace especial es que usa OCuLink, una conexión directa por PCIe — el mismo bus de datos ultrarrápido que usan las gráficas dentro de un PC de torre — pero sacada fuera mediante un cable.
¿Por qué importa esto? Porque las alternativas como Thunderbolt 4 pierden entre un 20-40% de rendimiento al conectar una GPU externa. OCuLink, en cambio, ofrece un ancho de banda de PCIe 4.0 x4, que según pruebas de Tom’s Guide da un rendimiento casi idéntico al de tener la gráfica montada dentro del ordenador. Para inferencia de IA — el proceso de hacer que un modelo “piense” y genere respuestas —, esa diferencia es crucial.
El dock en sí es un chasis abierto de aluminio con un slot PCIe x16 donde insertas tu gráfica, un conector OCuLink y un hueco para la fuente de alimentación ATX que necesitarás comprar aparte. No tiene ventiladores propios — la GPU usa los suyos. Es espartano, modular y barato. Exactamente lo que queremos.
Por qué nos interesa: el combo más infravalorado de 2026 para IA local
Aquí está la idea que cambia todo: no necesitas un PC de torre para correr modelos de IA potentes en casa. Necesitas un mini PC con OCuLink (los hay desde 250-350 € con procesadores AMD Ryzen 7), este dock de 65 € y una gráfica con suficiente VRAM — la memoria dedicada de la tarjeta gráfica, que es donde viven los modelos de IA mientras trabajan.
Con una RTX 5060 Ti y sus 16 GB de VRAM, conectada por OCuLink a un mini PC con 32-64 GB de RAM, puedes correr modelos de lenguaje de 14B a 34B parámetros en Ollama — una app gratuita que te permite correr LLMs (modelos grandes de lenguaje, como los que están detrás de ChatGPT) en tu propio ordenador sin depender de internet. Usuarios en egpu.io han confirmado que una RTX 3090 externa por OCuLink corre modelos de 34B sin despeinarse.
Pero lo verdaderamente brillante es la modularidad. Un PC de torre con una RTX consume entre 50-80W en idle, las 24 horas. Con este setup, apagas el dock cuando no lo necesitas. El mini PC solo consume 15-25W haciendo de servidor ligero. Enciendes la GPU solo cuando lanzas una consulta al modelo. En un año, la diferencia en la factura de luz es real.
Y luego está la escalabilidad. ¿Dentro de un año sale una GPU con 24 GB de VRAM por 400 €? Desatornillas la vieja, metes la nueva. El mini PC sigue siendo el mismo. Tu setup de IA crece contigo sin tener que reconstruir nada.
Cómo empezar: de la caja al ChatGPT privado
El montaje físico es sorprendentemente sencillo: insertas la gráfica en el slot del dock, conectas la fuente de alimentación, unes el cable OCuLink entre el dock y tu mini PC, y enciendes. Si tu mini PC ya tiene Linux o Windows con los drivers — los programas que permiten al sistema operativo comunicarse con la gráfica — de NVIDIA instalados, debería detectarla automáticamente.
Para verificar que tu GPU está funcionando, abre la terminal de tu ordenador y escribe esto:
nvidia-smi
Deberías ver el nombre de tu gráfica, la VRAM disponible y la temperatura. Si aparece, estás listo.
Ahora, instala Ollama. En Linux o macOS, abre la terminal y ejecuta:
curl -fsSL https://ollama.com/install.sh | sh
ollama run qwen2.5:14b
La primera línea instala Ollama. La segunda descarga y arranca Qwen 2.5 de 14B parámetros — un modelo open source que equilibra calidad y velocidad muy bien para 16 GB de VRAM. La primera vez tardará unos minutos en descargar el modelo (~8 GB). Después, las respuestas llegan en segundos.
El desarrollador japonés que inspiró este artículo fue un paso más allá: instaló LibreChat — una interfaz web open source que imita la experiencia de ChatGPT — y la expuso fuera de su red local usando Cloudflare Tunnel, un servicio gratuito que crea un túnel seguro entre tu servidor casero e internet. Resultado: un ChatGPT privado accesible desde el móvil, sin que tus datos salgan de tu casa. Su guía completa está documentada en Zenn.dev (en japonés, pero el navegador traduce bien).
Lo que no te van a contar
No todos los mini PC tienen OCuLink. Necesitas buscarlo específicamente — marcas como Minisforum, Beelink o GMKtec lo incluyen en sus gamas altas, pero muchos modelos populares no lo traen. Revisa las especificaciones antes de comprar. Además, el dock DEG2 no incluye fuente de alimentación: necesitas una ATX estándar, que son otros 40-60 €. El cable OCuLink tampoco siempre viene incluido dependiendo del vendedor. Y un detalle que pilla a muchos: la BIOS de algunos mini PC necesita un ajuste para habilitar la GPU externa — no es difícil, pero si nunca has tocado una BIOS, prepárate para buscar un tutorial. Por último, OCuLink es PCIe 4.0 x4, no x16. Para gaming notarías el cuello de botella; para inferencia de IA, donde el trabajo pesado ocurre dentro de la VRAM, es prácticamente irrelevante.
Veredicto
Si ya tienes un mini PC con OCuLink (o estás pensando en comprar uno), el DEG2 a 65 € es la forma más barata y flexible de montar un servidor de IA local serio. Si prefieres algo que funcione de caja sin cables ni configuración, cómprate un PC de torre convencional. Pero si te gusta la idea de un cerebro de IA modular que enciendes cuando quieres y apagas cuando no — esto es tu build.