Cómo ejecutar un «ChatGPT» privado

12 mayo 2026
Modelos de lenguaje grandes locales: ¡Cómo ejecutar un «ChatGPT» privado en tu propio ordenador portátil para mantener tus datos a salvo, garantizar la privacidad y trabajar totalmente sin conexión!

Modelos de lenguaje grandes locales: ¡Cómo ejecutar un «ChatGPT» privado en tu propio ordenador portátil para mantener tus datos a salvo, garantizar la privacidad y trabajar totalmente sin conexión!

Me senté en la penumbra de mi despacho, con la única luz que provenía del intenso resplandor azul de la pantalla de mi portátil y el rítmico zumbido de sus ventiladores. Afuera, el mundo estaba entregando sus secretos a la nube, línea a línea. ¿Pero aquí dentro? Aquí dentro, estaba construyendo una fortaleza digital. Iba a ejecutar un «ChatGPT» privado en mi propio ordenador, y no se lo iba a contar a ningún servidor.

Ejecutar un modelo de lenguaje a gran escala (LLM) de forma local es un acto de rebeldía. Es una discreta burla a los modelos de suscripción que te dejan sin un céntimo y a las políticas de privacidad que tratan tus datos como si fueran un bufé libre. Además, si soy sincero, también es un pequeño quebradero de cabeza. Pero ese es el precio de la libertad, ¿no? Unos cuantos errores de configuración y un portátil que suena como un motor a reacción a punto de despegar.

Si alguna vez has sentido esa ligera punzada de ansiedad antes de pulsar «enviar» en una consulta a una IA basada en la nube —preguntándote adónde van esos datos, quién los lee o si se están utilizando para entrenar al mismo modelo que, con el tiempo, acabará sustituyéndote—, entonces estás listo. Estás listo para bajar el fuego de la montaña y alojarlo en tu propio hardware.

El porqué: ¿por qué molestarse en llevar una vida «local»?

Seamos realistas. Los modelos en la nube como ChatGPT o Claude son más rápidos. Son más inteligentes. Tienen acceso a más potencia de cálculo que Dios. Entonces, ¿por qué tú, una persona sensata con una vida y una paciencia limitada, querrías ejecutar una versión más torpe en tu propio portátil?

Seamos realistas. Los modelos en la nube como ChatGPT o Claude son más rápidos. Son más inteligentes. Tienen acceso a más potencia de cálculo que Dios. Entonces, ¿por qué tú, una persona sensata con una vida y una paciencia limitada, querrías ejecutar una versión más torpe en tu propio portátil?

  1. La privacidad es un derecho humano: cuando ejecutas un modelo de forma local, tus datos nunca salen de tu ordenador. Puedes introducir tus declaraciones de la renta, las entradas más embarazosas de tu diario o ese guion ultrasecreto sobre un detective que solo puede resolver crímenes mientras come pan de masa madre. Nadie —ni OpenAI, ni Google, ni tu proveedor de Internet— ve ni una sola palabra de ello.
  2. ¿No hay Internet? No hay problema: puedes trabajar desde una cabaña aislada en el bosque, en un avión sin wifi carísimo o en medio de un auténtico apocalipsis. Siempre que tengas electricidad y tu portátil no se haya derretido sobre el escritorio, tu IA estará disponible.
  3. El factor «ghosting»: los proveedores de servicios en la nube cambian sus modelos constantemente. Un día tu IA es un genio y, al día siguiente, la han «castrado» por motivos de «seguridad». Cuando descargas un archivo de modelo, es tuyo. No cambia. No se vuelve «más segura» ni «más tonta», a menos que tú decidas que así sea.
  4. Sin costes (una vez superada la inversión inicial en hardware): Sin cuotas mensuales. Sin planes «pro». Sin tokens que comprar. Solo pagas la electricidad, y eso es todo.

El hardware: ¿tu portátil aguanta el calor?

Antes de ponerte manos a la obra, tenemos que hablar de tu equipo. Ejecutar un modelo de lenguaje grande (LLM) es como intentar meter una biblioteca en una caja de zapatos y luego pedirle a esa caja que escriba poesía. Requiere muchos recursos.

Lo más importante que debes saber es qué es la VRAM (memoria de vídeo). Se trata de la memoria de tu tarjeta gráfica (GPU). Si tienes una tarjeta NVIDIA dedicada, estás de suerte. Si tienes un Mac con Apple Silicon (M1, M2, M3 o M4), también estás de suerte, ya que la memoria RAM de tu sistema es «unificada» y puede utilizarse como VRAM.

Talla del modeloMínimo de VRAM/RAMLa experiencia
Pequeño (parámetros 1B–3B)4 GB–8 GBRápido y ágil, pero a veces dice cosas que te hacen dudar de su inteligencia.
Medio (parámetros 7B–9B)8 GB–16 GBEl «punto óptimo». Ideal para la mayoría de las tareas, la programación y las conversaciones en general.
Grande (parámetros 12B–14B+)16 GB–32 GB+Es un trabajo pesado. El razonamiento es mejor, pero puede que tu portátil parezca que está intentando provocar una fusión nuclear.

Las herramientas: elige la que más te guste

Ya no hace falta tener un doctorado en informática para hacer esto. Hoy en día hay herramientas que lo hacen tan fácil como instalar un navegador web. Estas son las tres opciones más destacadas que deberías tener en cuenta:


LM Studio

El referente en cuanto a «simplemente funciona». Cuenta con un motor de búsqueda integrado para modelos y una interfaz limpia, similar a la de ChatGPT.


Ollama

El sueño de cualquier minimalista. Funciona en segundo plano y se controla desde la línea de comandos o a través de otras aplicaciones.


AnythingLLM

Es ideal si quieres proporcionar a la IA tus propios documentos (PDF, archivos de texto) y chatear con ella.


Paso a paso: de cero a una IA privada

Si quieres la opción más sencilla, elige LM Studio. Este es el procedimiento que debes seguir:

  1. Descarga el programa: Entra en la página web de LM Studio y descarga el instalador para tu sistema operativo (Windows, Mac o Linux).
  2. La Gran Búsqueda: Abre la aplicación y utiliza la barra de búsqueda. Verás nombres como «Llama 3», «Mistral» o «Gemma». Busca modelos que tengan un gran número de «Me gusta» y una etiqueta de «compatibilidad» que indique «Debería caber en la VRAM».
  3. La cuantificación es tu aliada: cuando vayas a descargar el modelo, verás opciones como «Q4_K_M» o «Q8_0». Básicamente, se trata del «nivel de compresión» del modelo. Q4_K_M es el punto ideal: lo suficientemente pequeño como para ejecutarse rápido, pero lo suficientemente inteligente como para resultar útil.
  4. Cargar y bloquear: Ve a la pestaña «Chat de IA» (el icono del bocadillo), selecciona tu modelo en el menú desplegable de la parte superior y espera a que aparezca la barra de progreso.
  5. El primer «hola»: Escribe algo. Lo que sea. «Cuéntame un chiste sobre un chip de silicio con crisis de identidad». Observa cómo las letras se deslizan por la pantalla, generadas íntegramente por la electricidad que fluye a través de tu propio escritorio.

Las peculiaridades: no todo es de color de rosa

Tener un modelo local es como tener un coche clásico. Es precioso, es tuyo y, de vez en cuando, se estropea sin motivo aparente.

  • El factor alucinación: los modelos locales pueden ser… bastante creativos con la verdad. Como son más pequeños que sus primos de las nubes, es posible que te digan con total seguridad que la Luna está hecha de gorgonzola si les presionas lo suficiente.
  • El calor: Una vez, mi portátil se calentó tanto mientras ejecutaba un modelo 14B que pensé en usarlo como plancha para sándwiches. Si vas a realizar tareas pesadas, hazte con una base de refrigeración.
  • La velocidad: si no tienes una buena tarjeta gráfica, es posible que el texto aparezca… palabra… por… palabra. Es como ver a un niño pequeño muy inteligente intentar explicar un concepto físico complejo.

Un paso más allá: interactúa con tus archivos

La «aplicación estrella» de los modelos de lenguaje grandes (LLM) locales no es solo el chat, sino la generación aumentada por recuperación (RAG). Con una herramienta como AnythingLLM, puedes dirigir la IA a una carpeta llena de tus archivos PDF, notas o código.

Imagina preguntarte: «¿Qué decidí sobre el presupuesto para la reforma de la cocina en ese hilo de correo electrónico del pasado mes de junio?», y que una IA privada revise tus propios archivos y te dé la respuesta en cuestión de segundos, sin necesidad de subir esos archivos a ningún servidor. Ese es el sueño. Esa es la fortaleza.


Reflexiones finales

Vivimos en una época extraña, de transición. Hemos cambiado nuestra soberanía digital por la comodidad, pero la situación está cambiando. Gestionar un modelo de lenguaje grande (LLM) local no es solo un pasatiempo técnico; es una forma de recuperar tu espacio digital. Es complicado, es ruidoso y resulta profundamente satisfactorio.

Pues adelante. Descarga un modelo. Pon en marcha los ventiladores. Y, por el amor de Dios, no te pongas el portátil encima mientras la IA está procesando.

Tanto si eres un desarrollador con experiencia, un estudiante con ganas de aprender o alguien que simplemente se pregunta cómo la IA va a cambiar su trabajo, es fundamental encontrar un espacio de confianza en el que crecer. Por eso precisamente hemos creado la comunidad **AI Fans Portal**.
Esta entrada ha sido publicada por AI Fans Portal.