En un momento en que los LLMs como Llama, Gemini, ChatGPT o Claude se integran cada vez más en productos y procesos empresariales, surge un desafío notorio: las “alucinaciones” de estos modelos. Exploraremos de forma técnica y también sencilla, qué son las alucinaciones en los LLMs, las causas técnicas detrás de ellas, ejemplos reales y notables de este fenómeno, cómo interpretarlo (¿es un error, un sesgo o un problema de expectativas?), sus implicaciones y estrategias para mitigarlas. Además, hacemos énfasis en el camino del prototipo a la producción, subrayando por qué, aunque es fácil crear un prototipo con estas tecnologías, llevar un modelo a producción de forma segura requiere controles (guardrails), validación humana y monitoreo constante. Comencemos entendiendo el fenómeno.