Cacharros para usar IA en casa: guía completa de hardware para 2026
Qué hardware necesitas para correr IA en local. Mini PCs, placas, GPUs y asistentes de voz — explicado sin jerga, con precios reales desde 45 €.
31 productos analizados — actualizado automáticamente
Hay una pregunta que recibo constantemente desde que empecé este proyecto: ¿qué necesito exactamente para usar IA en casa?
La respuesta honesta es que depende de lo que quieras hacer. Pero hay una respuesta práctica que se aplica a casi todo el mundo: con menos hardware del que imaginas, y con mucho menos presupuesto del que los titulares de tecnología sugieren.
Esta guía te da un mapa completo — por categorías, por presupuesto, y sin rodeos.
¿Qué significa correr IA en local?
Cuando usas ChatGPT o Claude, tu texto viaja a un servidor de una empresa, se procesa allí, y la respuesta vuelve a tu pantalla. Correr IA en local significa que todo eso pasa en tu propio hardware, sin internet de por medio.
Las ventajas son reales: privacidad total, sin coste por uso, funciona sin conexión, y puedes integrar el modelo en tus propias herramientas. Las limitaciones también lo son: los modelos que puedes correr en casa son más pequeños que los de pago, y en hardware modesto la respuesta tarda unos segundos por frase.
La herramienta que hace posible todo esto para la mayoría de gente se llama Ollama. Funciona en Mac, Windows y Linux, y convierte la gestión de modelos en algo casi trivial.
Lo que necesitas antes de empezar
Antes de comprar nada, tres preguntas que determinan qué hardware tiene sentido para ti:
¿Qué quieres hacer? Chatear con un modelo de lenguaje, transcribir audio con Whisper, procesar imágenes, automatizar tu casa, o todo a la vez. Cada caso tiene requerimientos diferentes.
¿Cuánto te importa la velocidad? Un modelo corriendo en CPU tarda 3-8 segundos en generar cada frase. Con GPU el resultado es prácticamente instantáneo. Si vas a usarlo para trabajo, la GPU importa. Si es para experimentar, la CPU basta.
¿Tienes ya algo aprovechable? Un ordenador de sobremesa con tarjeta gráfica discreta, una Raspberry Pi guardada en un cajón, o incluso un mini PC viejo pueden ser el punto de partida sin gastar nada.
Hardware por categorías
Compute: mini PCs y GPUs
El camino más directo para correr modelos de lenguaje (LLMs) con buena velocidad. La frontera que marca la diferencia en GPUs son los 8 GB de VRAM — con menos, los modelos más interesantes no caben. Con 12 GB puedes correr modelos de 7B parámetros en cuantización Q4, que es donde empieza a ponerse interesante.
- 110 € y una PlayStation 5 muerta: cómo montar una estación de IA local con 16 GB de memoria ~110 €
- 249 € y 12 GB de VRAM: la Intel Arc B580 es la GPU más barata para correr IA en casa ~249 €
- La GPU de 429 € que hace lo que la RTX 4090 hacía por 1.800 € — y cómo correr IA local con ella ~429 €
- Un cacharro de bolsillo con 80 GB de RAM que corre IA de 120B parámetros sin internet — ¿demasiado bueno para ser verdad? ~1199 €
Placas: Raspberry Pi y SBCs
El terreno donde empieza mucha gente — y con razón. Las placas de bajo consumo son perfectas para proyectos siempre encendidos: asistentes de voz, automatización del hogar, o servidores de modelos ligeros. La Raspberry Pi 5 con 8 GB puede correr modelos de 1-3B parámetros directamente en CPU; los HATs de IA aceleran la inferencia para casos de voz e imagen.
- 89 € y una tarde: monté un asistente de voz local que deja a Alexa en ridículo — sin enviar una sola palabra a la nube ~89 €
- 130 € y una tarde: cómo monté un asistente de IA local en una Raspberry Pi que no manda nada a la nube ~130 €
- 195 € y una Raspberry Pi: esta tarjeta china de IA le da una paliza al HAT oficial ~195 €
- Arduino ya no parpadea LEDs: la Ventuno Q trae 40 TOPS de IA por menos de 300 € ~279 €
Automatización y asistentes de voz
Donde la IA local se vuelve cotidianamente útil: un asistente que escucha tus comandos, transcribe reuniones, o controla dispositivos de tu casa — todo sin enviar tus conversaciones a ningún servidor externo. Los ingredientes que se repiten: micrófono USB, altavoz, y Whisper para transcripción local.
- 15 € y un enchufe que ya viene hackeado de fábrica — domótica local sin soldar nada ~15 €
- 15 euros y un relé Shelly: el interruptor que también le cuenta cosas a tu IA local ~15 €
- 25 € y un radar que sabe que estás en el sofá aunque no te muevas ~25 €
- 30 € y un USB Zigbee que abre media casa: Zigbee2MQTT, sensores baratos y automatizaciones con IA ~30 €
- 45 € y un navegador: así monté un Alexa local que no espía ni una palabra ~45 €
- 80 € y un Furby Connect: el peluche robótico que puedes convertir en una mascota con IA local ~80 €
- 110 euros y un timbre PoE que convierte la puerta en una cámara local con IA ~110 €
- 135 € y una tarde: monté un asistente de IA con voz, pantalla y cámara sin soldar nada ~135 €
- 199 € y una cerradura Matter que Home Assistant controla en local: Nuki, Thread y automatizaciones con IA ~199 €
- 299 € y un Roborock que deja de mandar tu casa a la nube: Valetudo, Home Assistant y un agente local ~299 €
- 549€ y un código QR: un asistente de IA privado que funciona sin abrir la terminal ni una sola vez ~549 €
Audio: micrófonos y transcripción
La pieza más infravalorada de un stack de IA local con voz. La calidad del micrófono determina directamente la precisión de Whisper — un mal micrófono convierte en inútil incluso el modelo más potente.
Visión: cámaras e imagen
Para proyectos de visión por computador local — detección de personas, reconocimiento de objetos, vigilancia sin nube. Herramientas como Frigate convierten cualquier cámara con RTSP en un sistema de detección inteligente que corre en tu propio hardware.
- 30 € y una cámara RTSP que se convierte en ojos para tu IA local: Frigate, Home Assistant y MQTT ~30 €
- 60 euros y el chip de Google que convierte tu cámara en un detector de personas sin nube ni GPU ~60 €
- 70 € y una cámara que piensa sola: la Raspberry Pi AI Camera no necesita GPU para ver ~70 €
- 150 € y una cámara que ve en 3D: la OAK-D Lite mete profundidad y redes neuronales en un cacharro USB ~150 €
Estación de trabajo y homelab
Mini PCs de gama alta, NAS, y servidores compactos que funcionan como cerebro de todo el ecosistema. Aquí entra el hardware que combina capacidad de inferencia con capacidad de servidor: siempre encendido, silencioso, y capaz de correr Home Assistant, un LLM y otros servicios al mismo tiempo.
- 65 € y un cable: cómo convertir un mini PC en un servidor de IA que enciendes solo cuando lo necesitas ~65 €
- 299 € y cero ventiladores: el servidor de aluminio que convierte cualquier estante en un homelab de IA ~299 €
- El mini PC de 530€ que empieza corriendo IA y termina siendo una bestia con GPU externa ~530 €
- La GPU de 2020 que humilla a tarjetas de 3.500 € en IA local — y cuesta 650 € ~650 €
- Un mini PC de 1.399€ que corre modelos de IA de 70 mil millones de parámetros — sin tarjeta gráfica dedicada ~1399 €
- 2.699€ en 3,5 litros: el mini PC que quiere que montar IA local sea tan fácil como instalar una app ~2699 €
Combinaciones recomendadas por presupuesto
Menos de 150 € — "quiero probar esto"
Raspberry Pi 5 (8 GB) + microSD + fuente oficial — unos 90-100 € en total. Instala Ollama, corre Phi-3 o Llama 3.2 1B, y tienes un servidor de IA local en casa que consume 5W. Velocidad de respuesta: unos 3-5 tokens por segundo en CPU. Lento para conversación fluida, pero suficiente para entender cómo funciona todo esto. Si ya tienes un PC con cualquier GPU discreta de los últimos 8 años, instala Ollama directamente ahí — no hace falta comprar nada.
150-500 € — "quiero que funcione bien"
Raspberry Pi 5 + AI HAT+ 2 (40 TOPS) — unos 200 € en total con accesorios. Respuesta fluida en modelos de voz, buena velocidad para LLMs pequeños, consumo de 10-15W. El mejor punto de entrada si quieres un servidor siempre encendido y silencioso. Alternativa: una GPU con 12 GB de VRAM instalada en un PC existente — los modelos de 7B parámetros corren a velocidad conversacional real.
500-1.500 € — "esto va en serio"
Mini PC con 32 GB de RAM + GPU externa con 12 GB de VRAM — unos 800-900 € en total. La combinación más versátil: el mini PC gestiona el sistema, la GPU maneja la inferencia. Puedes correr modelos de hasta 13B parámetros con buena velocidad. Alternativa integrada: un Mac Mini M4 Pro (48 GB de memoria unificada) que corre modelos de 32-40B sin tarjeta adicional ni complicaciones de drivers.
Más de 1.500 € — "quiero correr modelos grandes"
Territorio de modelos de 70B+ parámetros o uso profesional intensivo. Las opciones son un mini PC de gama alta con mucha RAM unificada, o un PC de sobremesa con GPUs de 24 GB de VRAM cada una. La relación calidad-precio cae respecto a los rangos anteriores — asegúrate de necesitarlo antes de invertir aquí.
Lo que no te van a contar
Los modelos pequeños tienen límites reales. Un Llama 3.2 de 3B parámetros es impresionante para lo que cuesta correlo, pero no reemplaza a GPT-4 para tareas complejas. Para conversación general y tareas sencillas funciona bien. Para análisis detallado o código complejo, sus limitaciones son visibles.
El cuello de botella suele ser la RAM, no la CPU. Con menos de 8 GB el modelo hace swap a disco y la velocidad cae a niveles inutilizables. Antes de buscar más potencia de procesador, asegúrate de tener suficiente memoria.
Los drivers de Intel y AMD para IA en Linux son más problemáticos de lo que dicen. NVIDIA con CUDA sigue siendo la opción más sin-fricciones para inferencia en GPU. Si eliges Intel Arc o AMD, prepárate para resolver algún problema de configuración que en NVIDIA simplemente no existe. No es bloqueante, pero es tiempo real.
El consumo eléctrico importa si el servidor va a estar siempre encendido. Una Raspberry Pi consume 5-10W. Un mini PC de gama alta, 35-65W. Un PC de sobremesa con GPU corriendo un modelo, 150-300W. Si va a estar 24/7, haz los cálculos antes de decidir.
Veredicto
No hay una respuesta única a "qué hardware necesito para IA". Pero hay una recomendación que funciona para la mayoría: empieza con lo que ya tienes, instala Ollama, y descubre qué limitaciones te molestan en la práctica. Eso te dirá exactamente qué comprar después.
Si partes de cero con menos de 200 €, la Raspberry Pi 5 con AI HAT es el camino más redondo. Si tienes un PC de sobremesa y quieres el salto más grande por el menor dinero, una GPU con 12 GB de VRAM es la respuesta. Si no quieres complicaciones y tienes presupuesto, un Mac Mini M4 Pro hace todo sin configuración adicional.
Preguntas frecuentes
¿Cuánta RAM necesito para correr IA en local?
El mínimo útil son 8 GB. Con 8 GB puedes correr modelos de 1-3B parámetros cómodamente. Para modelos de 7B, necesitas al menos 16 GB. Para modelos de 13B o más, 32 GB o memoria de GPU dedicada (VRAM).
¿Necesito una GPU para correr IA en casa?
No. Puedes correr modelos en CPU — funciona, pero es más lento. Sin GPU, espera unos 3-8 tokens por segundo en modelos pequeños. Con GPU, 30-80 tokens por segundo. Para conversación fluida, la GPU marca una diferencia notable.
¿Qué modelos de IA puedo correr en casa?
Los más populares para hardware modesto son Llama 3.2 (1B y 3B), Phi-3 Mini, Mistral 7B y Gemma 2. Con más potencia, Llama 3.1 8B, Mistral NeMo 12B o Llama 3.3 70B en versiones cuantizadas.
¿Puedo correr IA en una Raspberry Pi?
Sí. La Raspberry Pi 5 con 8 GB puede correr modelos pequeños directamente. Con el AI HAT+ (26 o 40 TOPS), la velocidad de inferencia mejora significativamente para tareas de voz e imagen.
¿Qué es Ollama y por qué todo el mundo lo recomienda?
Ollama es una aplicación gratuita que gestiona la descarga, configuración y ejecución de modelos de IA en local. Funciona en Mac, Windows y Linux, expone una API compatible con la de OpenAI, y convierte algo técnicamente complejo en algo que cualquiera puede hacer. Es el punto de partida recomendado para casi todo el mundo.
¿Cuánto cuesta correr IA en local comparado con ChatGPT?
El hardware es un coste inicial único. La electricidad es el coste recurrente — entre 5 y 50 € al mes dependiendo del hardware y cuánto lo uses. Comparado con suscripciones de 20-200 €/mes a servicios de pago, el hardware se amortiza en pocos meses si lo usas regularmente.