TurboQuant — Google comprime modelos de IA al extremo#
- Fuente: https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
- Paper: https://arxiv.org/abs/2504.19874 (ICLR 2026)
- Ángulo: “Google acaba de hacer que tu homelab pueda correr modelos de IA el doble de grandes”
- Clave: Compresión KV cache sin pérdida → contextos más largos con menos RAM en hardware doméstico
- Fecha idea: 25 Mar 2026