Dígitos y cachivaches

Cómo adoptar una IA en tu ordenador y por qué vale la pena hacerlo

Por privacidad, coste y sostenibilidad, en muchos casos conviene evitar las grandes herramientas de inteligencia artificial de la nube y mantener los datos en casa

08/05/2026

BarcelonaCada vez que le pedimos a un bot de conversación de inteligencia artificial que nos haga un resumen, que transcriba una reunión o que mejore un texto, lo que escribimos viaja a servidores de empresas como Google, Microsoft, Anthropic y OpenAI, se procesa en sus enormes centros de datos y nos retorna en forma de respuesta. Parece magia, pero tiene coste: económico, medioambiental y, sobre todo, de privacidad. Por suerte, ya existe una alternativa viable que cambia este esquema: ejecutar el modelo de IA directamente en nuestro propio dispositivo, sin que nada salga de casa.

La idea de hacer funcionar un modelo de lenguaje grande (LLM, por las siglas en inglés) en nuestro ordenador podía parecer reservada a programadores. Pero la realidad es que, con las herramientas adecuadas y un hardware mínimamente actual, cualquier persona puede tener su propio asistente de IA funcionando de manera completamente autónoma. Los dos argumentos principales para hacerlo: los datos no van a la nube y no hace falta pagar cuotas mensuales.

Cargando
No hay anuncios

Una gratuidad solo aparente

Los grandes servicios de IA en la nube suelen ofrecerse de forma gratuita o a un precio aparentemente bajo: los habituales 20 € mensuales. Pero el modelo de negocio que los sustenta es, en buena medida, el aprovechamiento de los datos que introduces en ellos. Cada consulta que haces, cada documento que subes, cada conversación privada que transcribes deja rastro en servidores de empresas que operan bajo legislación de los EE. UU. u otras jurisdicciones. Además, los centros de datos que ejecutan la IA en la nube consumen cantidades ingentes de energía y agua; un modelo ligero ejecutado localmente, en cambio, consume únicamente la misma energía que el ordenador que ya tienes encendido.

Cargando
No hay anuncios

Hay colectivos que no pueden permitirse enviar datos a una nube ajena: médicos que trabajan con historiales clínicos, abogados que gestionan documentación confidencial, directivos con información sensible. Todos ellos se hacen la misma pregunta: ¿dónde se guarda la información y durante cuánto tiempo? Con un modelo local, la respuesta es que todo queda en el disco duro propio o en el servidor de la empresa, bajo el control del usuario. Se elimina además la dependencia de una conexión a internet y el coste por consulta o suscripción mensual.

La IA en local no es un fenómeno exclusivo de los ordenadores de sobremesa. Los ¿Qué se puede hacer con una IA local

Un modelo local no tiene la misma capacidad que los de la nube. Los modelos pequeños en el dispositivo propio sirven para tareas cotidianas como resúmenes, traducciones y redacción de textos, mientras que el razonamiento muy complejo o el análisis masivo de datos puede requerir un modelo remoto: un LLM en la nube puede ser entre 80 y 150 veces más grande –en cantidad de parámetros– que uno local.

Cargando
No hay anuncios

Uno de los casos de uso donde la ejecución local es especialmente competente es la transcripción de audio. Con Whisper, un modelo de reconocimiento de voz de OpenAI, se puede transcribir una reunión o una entrevista directamente al ordenador, sin que la grabación salga del dispositivo. Softcatalà ha publicado guías para instalar y usar Whisper localmente, con buen funcionamiento en catalán. Otras tareas bien adaptadas son resumir documentos largos, mejorar y corregir textos y traducir contenido.

Tu teléfono ya lo hace

La IA en local no es un fenómeno exclusivo de los ordenadores de sobremesa. Los smartphones de gama alta más recientes ya incorporan funciones de IA procesadas directamente por el chip del dispositivo. Google y Samsung abrieron este camino: los teléfonos Pixel transcriben audio en tiempo real sin conexión a la red; la Galaxy AI de Samsung incorpora funciones como la edición avanzada de fotos, el filtrado de llamadas sospechosas y la traducción en tiempo real, gracias al modelo Gemini Nano integrado directamente en el sistema operativo.

Cargando
No hay anuncios

Apple Intelligence promete la misma filosofía y se espera que amplíe progresivamente las capacidades locales, ya que aspira a hacer de la privacidad su argumento diferencial central.

Cómo adoptar una IA

El requisito principal para ejecutar un modelo de lenguaje en el propio ordenador es la memoria RAM. Los héroes de Softcatalà han publicado una guía muy completa para instalar Ollama, un software de código abierto que simplifica la descarga, la gestión y la ejecución de modelos directamente en la máquina del usuario, sin depender de servicios externos. Ollama funciona en Windows, macOS y Linux, y tiene una interfaz gráfica web que permite dialogar con el modelo en lenguaje natural.

Cargando
No hay anuncios

Con 8 GB de RAM, Softcatalà recomienda instalar el modelo Gemma 3 de Google en la versión de 4.000 millones de parámetros; con 16 GB, se puede optar por la versión de 12.000 millones. Esta familia Gemma 3 es la recomendación principal de Softcatalà para el uso general en catalán, seguida del modelo europeo Mistral Small. Hablando de idioma, es frecuente que los modelos poco entrenados en catalán mezclen las dos lenguas en las respuestas, pero Gemma de Google evita casi siempre este problema.

En cuanto al ordenador, el mejor escenario es el de los Mac con chip Apple Silicon (M1, M2, M3 y posteriores): la arquitectura de memoria unificada, compartida entre CPU y GPU, es especialmente adecuada para ejecutar LLM. No es casualidad que en los últimos años los profesionales del sector se hayan pasado masivamente de ordenadores Linux a Mac. En ordenadores Windows y Linux con tarjeta gráfica NVIDIA o AMD con suficiente memoria de vídeo el rendimiento es también muy bueno; sin tarjeta gráfica dedicada, el modelo se ejecuta en la CPU: se puede hacer, pero es considerablemente más lento.

Cargando
No hay anuncios

La IA en local no es la solución para todas las situaciones: las tareas que requieren modelos muy grandes o acceso a información actualizada en tiempo real continuarán pidiendo la nube. Pero cada vez son más los usos cotidianos –resumir un documento, transcribir una entrevista, corregir un texto– donde tener la IA en casa ya es una opción asequible, privada y sin cuotas mensuales.