Por qué las matemáticas son difíciles (aunque seas una IA)
Los modelos lingüísticos no saben memorizar resultados de la misma manera que nosotros memorizamos pi, pero eso no los convierte en matemáticos. El problema es estructural: aprenden por similitud estadística, no por comprensión algorítmica. Incluso los nuevos "modelos de razonamiento" como o1 fallan en tareas triviales: cuenta correctamente la "r" de "fresa" tras segundos de procesamiento, pero se equivoca cuando tiene que escribir un párrafo en el que la segunda letra de cada frase forma una palabra. La versión premium, de 200 dólares al mes, tarda cuatro minutos en resolver lo que un niño hace al instante. DeepSeek y Mistral en 2025 siguen contando mal las letras. ¿La solución emergente? Un enfoque híbrido: los modelos más inteligentes han descubierto cuándo llamar a una calculadora real en lugar de intentar realizar el cálculo ellos mismos. Cambio de paradigma: la IA no tiene por qué saber hacerlo todo, sino orquestar las herramientas adecuadas. Paradoja final: GPT-4 puede explicarte brillantemente la teoría de límites pero se equivoca en multiplicaciones que una calculadora de bolsillo siempre resuelve correctamente. Para la educación matemática son excelentes: explican con infinita paciencia, adaptan ejemplos, desglosan razonamientos complejos. ¿Para cálculos precisos? Confía en la calculadora, no en la inteligencia artificial.