computacion some-terminal

249 € y 12 GB de VRAM: la Intel Arc B580 es la GPU más barata para correr IA en casa

La Intel Arc B580 ofrece 12 GB de VRAM por 249 €, suficiente para correr modelos de IA de 7B parámetros en local. Te contamos cómo empezar.

ver producto ~249€
249 € y 12 GB de VRAM: la Intel Arc B580 es la GPU más barata para correr IA en casa

💡 Antes de empezar Necesitas: Un PC de sobremesa con ranura PCIe x16 libre y fuente de 550W o más Tiempo estimado: Una tarde — entre montar la tarjeta e instalar todo el software Nivel: Necesitas perder el miedo a la terminal

El problema de los 12 gigas

Llevas semanas viendo vídeos de gente corriendo ChatGPT-like en su propio ordenador. Quieres probarlo. Miras precios de GPUs — tarjetas gráficas, el componente que hace los cálculos pesados — y descubres que NVIDIA no te da 12 GB de VRAM — la memoria dedicada de la tarjeta gráfica, donde tiene que caber el modelo de IA entero para que funcione bien — por menos de 350 €. Entonces aparece la Intel Arc B580: 12 GB, 249 €, y un ecosistema de software que en 2026 por fin ha madurado lo suficiente para tomárselo en serio.

Qué es exactamente la Arc B580

Es una tarjeta gráfica de Intel de gama media-baja pensada para gaming, pero que resulta ser oro para IA local por una razón simple: tiene 12 GB de VRAM cuando su competencia directa en precio (la RTX 4060 de NVIDIA) se queda en 8 GB. Esos 4 GB extra son la diferencia entre poder cargar un modelo de lenguaje de 7.000 millones de parámetros entero en memoria o no poder.

Las specs que importan para lo nuestro:

  • 12 GB GDDR6 de VRAM
  • Ancho de banda de 456 GB/s — un 20% más que la RTX 4060 Ti, lo que significa que los datos viajan más rápido entre la memoria y el procesador de la GPU
  • Soporte Vulkan y SYCL — dos formas diferentes de hablar con la GPU para hacer cálculos de IA (más sobre esto abajo)
  • TDP de 150W — consumo razonable, no necesitas una fuente descomunal

Por qué nos interesa

Aquí va lo importante: la VRAM es el cuello de botella número uno para correr IA en local. Un LLM — un modelo grande de lenguaje, como los que hay detrás de ChatGPT — necesita caber entero (o casi) en la memoria de tu GPU para responder rápido. Con 8 GB te quedas en modelos pequeños o versiones muy recortadas. Con 12 GB puedes cargar modelos de 7B-9B parámetros como Llama 3.2, Qwen 3 o DeepSeek-Coder en cuantizaciones de 4 bits sin sudar. También puedes generar imágenes con Stable Diffusion sin quedarte sin memoria a la primera.

La comunidad de r/LocalLLaMA — el subreddit donde se junta la gente que corre IA en sus propias máquinas — lleva meses señalándola como la opción budget de 2026. Y no es solo hype: Intel ha publicado ipex-llm, una herramienta oficial en GitHub que integra la B580 con Ollama — una app gratuita que te permite correr modelos de IA en tu ordenador sin depender de internet — y con llama.cpp — el motor open source más popular para ejecutar LLMs en hardware doméstico.

El rendimiento real está en torno al 85-90% de una RTX 4060 Ti en tareas de inferencia — el proceso de hacerle preguntas al modelo y obtener respuestas. ¿La pega? Que no usas CUDA — el ecosistema de software de NVIDIA que todo el mundo usa y que tiene 10 años de ventaja —, sino SYCL o Vulkan, que funcionan pero todavía llevan una penalización del 20-30% en velocidad. Es decir: la tarjeta puede con los mismos modelos, pero tarda un poco más en responder.

Cómo empezar

El camino más directo en mayo de 2026 es usar Ollama con ipex-llm. Primero instala los drivers de Intel para tu sistema operativo desde la web de Intel Arc.

Después, abre la terminal de tu ordenador — en Windows busca “cmd” o “PowerShell” en el menú de inicio; en Linux ya sabes — y clona el repositorio de ipex-llm:

# Descarga ipex-llm, la herramienta de Intel para correr LLMs en sus GPUs
git clone https://github.com/intel-analytics/ipex-llm.git
cd ipex-llm

Desde ahí, la guía oficial tiene instrucciones específicas para la B580 que configuran Ollama para usar tu GPU Intel en vez de la CPU. Una vez instalado, correr un modelo es así de simple:

# Descarga y ejecuta Llama 3.2 de 8B parámetros — tarda unos minutos la primera vez
ollama run llama3.2

Si prefieres evitar SYCL y sus dependencias de oneAPI — el kit de desarrollo de Intel, que puede ser un lío de instalar —, la alternativa rápida es usar llama.cpp con el backend Vulkan, que funciona sin instalar nada extra de Intel. La comunidad recomienda empezar por ahí si es tu primera vez.

Lo que no te van a contar

El software es el punto débil, y hay que ser honestos. CUDA de NVIDIA es un ecosistema con una década de ventaja: casi todos los tutoriales, todos los frameworks y todas las guías asumen que tienes una tarjeta NVIDIA. Con la B580 vas a encontrar momentos de “esto en NVIDIA se hace en un paso y aquí necesito tres”. Los drivers oneAPI pueden dar problemas en algunas configuraciones de Linux. Y si quieres usar herramientas más avanzadas como entrenamiento con fine-tuning o pipelines complejos con LangChain — un framework para construir aplicaciones de IA encadenando varios pasos —, vas a toparte con incompatibilidades que en NVIDIA no existen. Ha mejorado mucho en 2026, pero no es paridad todavía.

Veredicto

Si tu presupuesto está por debajo de 300 € y quieres correr modelos de IA en local de verdad, la Arc B580 es la tarjeta. No hay nada con 12 GB de VRAM a este precio. Ahora bien, si valoras que todo funcione a la primera sin buscar soluciones alternativas, y puedes estirar el presupuesto a 350-400 €, una RTX 4060 Ti con CUDA te ahorrará dolores de cabeza. La B580 es para quien prefiere ahorrar 100 € y no le importa invertir una tarde extra configurando cosas.