Ollama: cómo correr LLMs en local desde tu homelab (sin nube, sin API keys)
·2000 palabras·10 mins
Hace tiempo que tengo Ollama corriendo en mi servidor, y todavía me sorprende lo que es posible hacer con hardware razonablemente normal. No tienes que tener una GPU de datacenter para correr modelos de lenguaje útiles. Con lo que ya tienes en el homelab, probablemente puedas empezar hoy mismo.
Esta es la guía que me hubiera gustado encontrar cuando empecé: sin rodeos, con números reales, y con los problemas que me encontré por el camino.