computacion anyone

Un cacharro de bolsillo con 80 GB de RAM que corre IA de 120B parámetros sin internet — ¿demasiado bueno para ser verdad?

Tiiny AI Pocket Lab: 80 GB de memoria, modelos de 120B offline y récord Guinness. Analizamos qué promete, qué sabemos y qué no cuadra del todo.

ver producto ~1199€
Un cacharro de bolsillo con 80 GB de RAM que corre IA de 120B parámetros sin internet — ¿demasiado bueno para ser verdad?

💡 Antes de empezar Necesitas: Un portátil o PC con puerto USB-C (y paciencia — aún no se ha enviado ninguna unidad) Tiempo estimado: Minutos, según el fabricante. En la realidad: por confirmar Nivel: Sin experiencia previa — prometen despliegue con un clic

Imagina sacar del bolsillo algo del tamaño de un smartphone, conectarlo a tu portátil por USB, y tener un modelo de IA con 120.000 millones de parámetros funcionando offline — sin pagar suscripciones, sin enviar tus datos a ninguna nube. Eso es exactamente lo que promete Tiiny AI Pocket Lab, un proyecto que recaudó un millón de dólares en cinco horas en Kickstarter y ya lleva más de tres millones. Tiene hasta récord Guinness como el mini PC más pequeño capaz de correr un LLM — un modelo de lenguaje grande, la tecnología detrás de ChatGPT — de 100.000 millones de parámetros en local.

Qué es exactamente

Tiiny AI Pocket Lab es lo que sus creadores llaman una “AgentBox”: un dispositivo compacto diseñado específicamente para ejecutar modelos de inteligencia artificial de forma local y continua. Lo que lo hace especial es la combinación de tamaño y memoria: mete 80 GB de LPDDR5X — memoria RAM ultrarrápida de última generación — en un formato que cabe en la palma de tu mano. Eso es más RAM que la mayoría de estaciones de trabajo de escritorio.

¿Por qué importa tanta memoria? Porque los modelos de IA grandes necesitan cargarse enteros en RAM para funcionar. Un modelo de 70.000 millones de parámetros — los “parámetros” son los valores que el modelo aprendió durante su entrenamiento — ocupa fácilmente 40-50 GB. Con 80 GB disponibles, este cacharro puede cargar modelos de hasta 120B parámetros, algo que normalmente requiere una GPU de más de 2.000€ o varias tarjetas gráficas trabajando juntas.

El consumo es de solo 65 vatios — como una bombilla grande — frente a los 300-500W de una estación GPU dedicada. El equipo detrás viene de MIT, Stanford, Intel y Meta, lo cual da cierta credibilidad técnica, aunque como veremos, hay matices importantes.

Por qué nos interesa

La propuesta de valor es clara: IA local, siempre encendida, sin costes recurrentes. Si usas la API de OpenAI o Anthropic para tus proyectos, cada token — cada fragmento de texto que genera el modelo — te cuesta dinero. Con Tiiny AI, pagas una vez y el modelo corre en tu mesa sin fees.

El dispositivo soporta archivos .gguf de Hugging Face — el formato estándar para correr modelos de IA en hardware normal, sin necesidad de GPUs profesionales. Eso significa acceso a miles de modelos: Llama 4 de Meta, Qwen3, DeepSeek, y prácticamente cualquier modelo open source que la comunidad publique. La velocidad prometida es de más de 20 tokens por segundo, que en la práctica significa que la IA te responde con fluidez, sin esas pausas dolorosas que se sienten al correr modelos grandes en hardware limitado.

Incluyen OpenClaw, su propio software para desplegar agentes de IA — programas que no solo responden preguntas sino que realizan tareas de forma autónoma — diseñados para funcionar 24/7. Piensa en un agente que monitoriza tus correos, resume documentos, o automatiza flujos de trabajo, todo corriendo en tu mesa sin que nadie más vea tus datos.

Para el developer, la comparación natural es contra una Mac Studio con mucha RAM unificada o un setup con varias GPUs. La Mac Studio M2 Ultra con 192 GB cuesta más de 4.000€ pero es mucho más versátil. Tiiny AI apunta a un nicho más específico: quieres correr LLMs grandes y nada más, al menor coste y tamaño posibles.

Cómo empezar (cuando llegue)

Tiiny AI promete que la experiencia será conectar el dispositivo por USB-C, abrir su app, y hacer clic. Sin terminal — la línea de comandos de tu ordenador — ni configuración manual. Para los que quieran ir más allá, al soportar el formato .gguf deberías poder descargar modelos de Hugging Face y cargarlos directamente.

Si quieres ir familiarizándote con el ecosistema mientras esperas, puedes instalar Ollama — una app gratuita que te permite correr modelos de IA en tu propio ordenador — y probar modelos más pequeños. Abre la terminal de tu ordenador y escribe esto para instalar Ollama y correr un modelo de prueba:

# En macOS o Linux — instala Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Descarga y ejecuta un modelo de 8B parámetros (necesitas ~5 GB de RAM libre)
ollama run llama3.1:8b

Esto te dará una idea de cómo funciona la IA local. El salto de Tiiny AI sería correr modelos 15 veces más grandes en un dispositivo dedicado, sin ocupar los recursos de tu ordenador.

Lo que no te van a contar

Hablemos claro: esto es un Kickstarter y aún no se ha entregado ni una sola unidad. Envío estimado: agosto de 2026. La comunidad técnica tiene preguntas legítimas que el equipo no ha respondido del todo.

La documentación sobre el stack de software — OpenClaw, los drivers, cómo se comunica exactamente con tu PC — es escasa. Prometen “un clic” pero no han mostrado demos completas del flujo real de uso. Los 20+ tokens por segundo suenan bien, pero no han publicado benchmarks independientes ni metodología. ¿Con qué cuantización? ¿Con qué modelo exacto? ¿Qué pasa con el contexto largo? Estas preguntas importan.

Además, 1.199€ es mucho dinero para apostar en un producto que no existe todavía. Por ese precio puedes comprarte hoy una Raspberry Pi 5 con un HAT de IA, una mini PC con 64 GB de RAM para correr modelos medianos con Ollama, o incluso ahorrar un poco más para una Mac Mini con 32 GB que haga muchas más cosas además de IA. La historia de Kickstarter está llena de proyectos que recaudaron millones y luego entregaron tarde, con recortes, o directamente no entregaron.

El récord Guinness suena impresionante, pero es marketing: lo que importa es si el producto final funciona como prometen en condiciones reales.

Veredicto

Si el Tiiny AI Pocket Lab cumple lo que promete, será un cacharro revolucionario para quien necesite IA potente, portátil y privada. Pero hoy no es un producto: es una promesa de 1.199€ sin fecha garantizada. Si tienes ese dinero y te sobra para arriesgar, el concepto es genuinamente interesante. Si necesitas algo que funcione ya, monta un setup con Ollama en hardware que puedas comprar hoy y espera a que alguien de los 2.181 backers lo reciba y lo pruebe de verdad.