Que Pi es uno de los números más icónicos de las matemáticas es algo de sobra conocido a estas alturas, y que puede aparecer en cualquier «lugar matemático» también. Hoy veremos un nuevo ejemplo: cómo el cálculo de un límite aparentemente sencillo esconde una cuestión poco conocida sobre el número Pi cuya respuesta todavía no tenemos completa.

Número pi

Pues sí, amigos. El número Pi, ese número irracional y trascendente que aparece en fórmulas como la del volumen de la esfera (tanto de la esfera tridimensional como de la esfera en dimensión n), en los resultados de algunas sumas infinitas y de algunos productos infinitos, en el triángulo de Pascal, en la probabilidad de escoger dos números primos relativos, en el conjunto de Mandelbrot y que es uno de los protagonistas de la identidad de Euler, tiene todavía secretos a desvelar. Uno de los más importantes (posiblemente, el que más) es determinar si es o no es un número normal, y otro es el que os traigo hoy.

Comencemos desde el principio. A finales de junio dejaba en mi cuenta de Twitter el siguiente problema:

Como podéis ver, el límite que proponía calcular tiene una pinta bastante inocente, ya que sin(n) tiene una acotación bastante sencilla y conocida (su valor está siempre entre -1 y 1)…pero el hecho de que esté en el denominador hace que ese camino, el de la acotación, no nos sirva de mucho en este caso. Por otro lado, el denominador no puede ser cero nunca (ya que n \in \mathbb{N}), pero sí que puede estar muy cerca de cero…y además sin ningún tipo de tendencia.

Lo mismo ocurre con este otro límite que propuse hace unos días:

Como veis, la única diferencia con el anterior es el exponente de la n del denominador, que ahora es 1 en vez de 2. Bien, pues eso cambia mucho las cosas, más de lo que parece. Lo veremos más adelante.

En ambos casos, muchas han sido las personas que intentaron dar con la tecla para calcular los límites de una forma u otra, pero la mayoría dieron argumentos falsos al intentar calcular los límites (o demostrar que no existen) o se chocaron contra un muro y, por desgracia, se quedaron a mitad de camino…

Gonzalo Cao…menos Gonzalo Cao, graduado en matemáticas y física por la Universidad Politécnica de Cataluña y, actualmente, estudiante de doctorado en ecuaciones en derivadas parciales en el MIT. Gonzalo es un enamorado de las matemáticas desde el instituto, época en la que participó en olimpiadas matemáticas y llegó a conseguir una medalla de bronce en la Olimpiada Matemática Internacional de 2014, celebrada en Ciudad del Cabo (Sudáfrica).

Gonzalo, en varios tuits, dio unas pinceladas sobre el problema de estos límites, muy relacionado (inesperadamente) con el número \pi. En concreto, la existencia o no de estos límites está íntimamente relacionada con lo que se conoce como la medida irracional de \pi, algo así como la capacidad que tenemos de aproximar el valor de \pi con números racionales (esto es, fracciones).

Al ver su respuesta, le propuse que escribiera algo sobre el tema para el blog, a lo que accedió encantado. Os dejo a continuación con su texto sobre este tema.


Hace unas semanas, la cuenta de Twitter de Gaussianos nos planteaba el siguiente límite:

\displaystyle{\lim_{n \to \infty} \frac{1}{n^2 \sin (n)}}

donde n recorre los números naturales. Como n^2 tiende a infinito, es muy razonable pensar que n^2 \sin (n) tienda a infinito y el límite planteado sea 0. Pero tenemos que tener cuidado, porque hay un \sin (n) multiplicando a n^2 que podría ser muy cercano a 0. Miremos los ejemplos n=10 y n=355. Para n=10, tenemos que \sin (10) \approx -0.54, y por lo tanto 1/(n^2 \sin (n)) \approx -0.018, lo cual es bastante cercano a 0. Pero si miramos a n=355 la cosa es mucho peor: aquí se da la casualidad de que \sin (355) \approx -0.00003, que es un valor cercanísimo a 0. Como consecuencia, 1/(355^2 \sin (355)) \approx -0.26. Si el límite fuese 0, uno esperaría que el valor se fuese acercando más y más a 0; sin embargo, para n=355 estamos mucho más lejos de 0 que para n=10.

Como muchos podréis suponer, n=355 está escogido a propósito para que las cosas vayan mal: lo hemos cogido para que \sin (n) sea cercanísimo a 0. Por lo tanto, si hay muchos más ejemplos como n=355 estaríamos en apuros para calcular nuestro límite. Para entender un poco mejor dicho límite, consideremos dos supuestos:

  • Supuesto 1: Supongamos que existieran infinitos valores de n tales que |\sin (n)| < 10/n^2 (el n=355, por ejemplo, sería uno de ellos). En este caso, existen infinitos n tales que |n^2 \sin (n)| < 10. Por tanto, no puede ser que |n^2\sin (n)| tienda a infinito, y el límite planteado originalmente no es 0 (no existiría límite).
  • Supuesto 2: Supongamos ahora que para todo n tuviésemos la cota | \sin (n) | > 1000/n. En tal caso, tendríamos que

    \cfrac{1}{n^2 |\sin (n)|} < \cfrac{1}{n^2/(1000n)} = \cfrac{1000}{n}

    y como la sucesión de la derecha tiende a 0, también lo haría la de la izquierda.

    La pregunta ahora es: ¿estamos en una situación como la del supuesto 1 o como la del supuesto 2? En realidad, ambos casos tratan con el mismo concepto: las cotas inferiores de |\sin (n)|. En el supuesto 1 estamos diciendo: «la cota inferior |\sin (n)| \geq 10/n^2 se está incumpliendo infinitas veces», mientras que en el supuesto 2 decimos: «la cota inferior |\sin (n)| > 1000/n se cumple». La moraleja que sacamos de aquí es muy útil, y es que debemos de estudiar cotas inferiores de | \sin (n)|. Por el contrario, las cotas superiores (como | \sin (n) | \leq 1) no nos serán muy útiles aquí, porque los problemas surgen cuando | \sin (n)| es pequeño, no cuando | \sin (n)| es grande.

    Una primera cosa que podemos ver sobre el límite es que, si existe, es 0. Basta fijarnos en los n para los cuales | \sin (n)| > 1/1000 (la mayoría de los n son de este tipo, uno que no lo es sería el 355). Para estos n, tenemos 1/|n^2 \sin (n)| < 1000/n^2, y por tanto el límite es 0 sobre ellos. Eso imposibilita que el límite original sea un L \neq 0, porque en dicho caso el límite también sería L \neq 0 sobre los naturales tales que | \sin (n) | > 1/1000, cosa que es falsa. Esto nos deja dos escenarios: o el límite es 0 o el límite no existe.

    La manera de hacer esto es suponer que existe un límite L y probar luego que L=0. Para ello, cogemos k arbitrariamente grande y escogemos n_k como el natural que hay en el intervalo [2 \pi k + \pi /2 - 1/2, 2 \pi k + \pi /2 + 1/2] (como el intervalo es de longitud 1, habrá algún natural dentro). Como estamos suponiendo que el límite original es L, también será el límite para los naturales de la forma n_k (que son sólo algunos de los naturales), y tendremos que

    L = \displaystyle{\lim_{k \to \infty} \cfrac{1}{n_k^2 \sin (n_k)}}

    Ahora bien, como el seno tiene un período de 2\pi, el valor de \sin (n_k) será el seno de un número entre \pi /2 - 1/2 y \pi /2 + 1/2. En el intervalo [\pi/2 - 1/2, \pi/2 + 1/2] el seno siempre vale más de 1/10, y tenemos que |\sin (n_k)| > 1/10. Aplicando esa desigualdad, tenemos que

    |L| = \displaystyle{\lim_{k \to \infty} \cfrac{1}{|n_k^2 \sin (n_k)|} \leq \lim_{k \to \infty} \cfrac{1}{n_k^2/2} = 0}

    por lo que vemos que |L| \leq 0, y por lo tanto el límite sólo puede ser L=0. No obstante, no hemos probado que el límite sea 0, porque hemos asumido que el límite existe para este razonamiento. Lo único que hemos hecho es descartar que el límite exista y tome un valor diferente de cero. Esto, como decíamos, nos deja dos posibilidades: o bien el límite es cero o bien el límite no existe.

    El valor de | \sin (n) | será pequeño cuando n esté cerca de los ceros del seno, que son los números de la forma k \pi. Como \pi es irracional, nunca tendremos n = k\pi (luego nunca ocurrirá \sin (n) = 0), pero sí puede ocurrir n \approx k \pi, es decir, n/k \approx \pi. En concreto, si definimos k para que k\pi sea lo más cercano a n (es decir, k es el redondeo a un natural de n/ \pi), tendremos que |k\pi-n| \leq \pi/2. Denotaremos a este error por y = k\pi - n. Como |\sin (n )| es periódica de período \pi, podemos escribir |\sin (n)| = | \sin (y)| que, por Taylor, es aproximadamente |y| (formalmente, |y|/10 < |\sin (y)| < 10|y|). Por lo tanto, tenemos que

    \left| \sin (n) \right| \sim k \left| \cfrac{n}{k} - \pi \right|

    El símbolo \sim significa que las dos cantidades son del mismo orden (formalmente, una es menor que 10 veces la otra y viceversa). En particular, el límite original será 0 si y sólo si

    \displaystyle{\lim_{n \to \infty } \cfrac{1}{n^2 k \left| \frac{n}{k} - \pi \right| } = 0}

    De hecho, también tenemos que n \sim k, y podemos simplemente mirar si el límite de k^3 \left| n/k - \pi \right| es infinito o no. Si no lo es, significa que existe un C e infinitos n tales que

    \left | \pi - \cfrac{n}{k} \right| < \cfrac{C}{k^3}

    Cuando se cumpla esta condición, diremos que \pi es 3-aproximable (en general, podemos cambiar \pi por cualquier irracional x y el 3 del denominador por cualquier real \alpha > 0 para decir que x es \alpha-aproximable). Lo que hemos visto es que el límite planteado no existe si \pi es 3-aproximable, mientras que el límite planteado es 0 si \pi no es 3-aproximable.

    Una manera intuitiva de pensar en los números 3-aproximables es la siguiente: son los números tales que podemos aproximar sus 3p primeras cifras utilizando fracciones con números de p cifras. En efecto, si k y n tienen p cifras (son del orden de 10^p) y son una 3-aproximación de \pi, tendremos que el error es del orden de 1/k^3 \sim 10^{-3p}. Luego n/k estaría clavando las primeras 3p cifras decimales de \pi. Por ejemplo, la famosa aproximación 22/7 = 3.142 \ldots clava las tres primeras cifras de \pi utilizando un denominador de tan sólo una cifra. Otra aproximación es 355/113= 3.1415929 \ldots, que utilizando apenas 3 cifras decimales clava las 7 primeras cifras de \pi (dejando un error de menos de tres diezmillonésimas). Estos ejemplos están bien para entender por dónde van los tiros, pero no nos demostrarán nada, porque para probar que \pi sea 3-aproximable necesitaríamos infinitos ejemplos de aproximaciones n/k con error del orden de 1/k^3.

    Una primera aproximación de \pi que podemos hacer es, para cada k natural, coger n como el entero más cercano a k\pi. El error |n-k\pi| es como mucho 1/2, por lo que | \pi - n/k| será como mucho 1/(2k). Es decir, \pi es 1-aproximable. Esto no es nada del otro mundo, de hecho, todos los números son 1-aproximables siguiendo el mismo argumento. La gracia del asunto estará en demostrar que un número sea \alpha-aproximable cuando \alpha sea mayor que 1.

    Una manera mejor de ir aproximando \pi es la siguiente. Empezamos escribiendo

    \pi = 3.141 \ldots = 3+r_0

    y si tomamos r_0 \approx 0 tenemos una primera aproximación de \pi por racionales: \pi \approx 3. Como esto no es muy sorprendente, lo que hacemos es tratar de mejorar la aproximación refinando el resto r_0. Concretamente, vemos que r_0^{-1} = 7.0625 \ldots = 7+r_1, por lo que tenemos

    \pi = 3 + \cfrac{1}{7+r_1} = \cfrac{22 + 3r_1}{7+r_1}

    y tomando r_1 \approx 0 nos da la conocida aproximación \pi \approx 22/7 (de ahí que el 22 de Julio se celebre como día de la Aproximación de Pi). Análogamente, podemos ver que r_1^{-1} = 15.996 \ldots = 15 + r_2, lo que nos da

    \pi = \cfrac{22 + \cfrac{3}{15+r_2} }{7 + \cfrac{1}{15 + r_2} } = \cfrac{22(15+r_2) + 3}{7(15+r_2) + 1} = \cfrac{333 + 22r_2}{106 + 7r_2}

    y aproximando r_2 \approx 0 obtenemos \pi \approx 333/106. Como vemos en esta última expresión, la fracción formada por los números que multiplican a r_2 nos da la anterior aproximación de \pi. Esto no es casualidad, ocurre por lo siguiente: esa fracción se puede interpretar como el límite de nuestra expresión cuando r_2 \rightarrow \infty; en concreto, nuestra expresión tenderá a 22/7 cuando r_2 tienda a infinito. ¿Qué pasaría si aproximamos r_2 \approx \infty en vez de r_2 \approx 0? Pues como r_1^{-1} = 15+r_2, aproximar r_2 a infinito es lo mismo que aproximar r_1 a 0. Pero es que r_1 \approx 0 era la aproximación previa, que nos daba 22/7. Resuelto el misterio: la fracción de valores que multiplican a r_2 da la anterior aproximación de \pi porque ambas cosas son el resultado de tomar r_2 \rightarrow \infty.

    Otra cosa que podemos ver es que las aproximaciones van alternando el lado al que caen de \pi. Tenemos que \pi > 3, pero \pi < 22/7, y volvemos a tener \pi > 333/106. Esto se debe a que el número (333 + 22r_2)/(106 + 7r_2) (que es \pi) siempre está entre 333/106 y (22r_2)/(7r_2) = 22/7. Por lo tanto, \pi siempre está entre dos aproximaciones consecutivas, y en consecuencia las aproximaciones van alternando de lado.

    En general, podemos llamar n_i/k_i a nuestra aproximación i-ésima (siendo n_0 / k_0 = 3/1), y podemos escribir

    \pi = \cfrac{n_i + n_{i-1} r_i}{k_i + k_{i-1} r_i}

    Sustituyendo r_i = (a_{i+1} + r_{i+1})^{-1} se obtiene las recurrencia n_{i+1} = a_{i+1}n_i + n_{i-1} y k_{i+1} = a_{i+1}k_i + k_{i-1}, lo que se escribe en forma matricial como

    \left( \begin{matrix}  n_{i+1} & n_i \\  k_{i+1} & k_i \\  \end{matrix}\right)  =  \left( \begin{matrix}  n_{i} & n_{i-1} \\  k_{i} & k_{i-1} \\  \end{matrix} \right)  \left( \begin{matrix}  a_{i+1} & 1 \\  1 & 0 \\  \end{matrix} \right)

    Como la segunda matriz de la derecha es de determinante -1 (y el determinante del producto es producto de determinantes), tenemos que el determinante de la primera matriz es igual al determinante de la primera de la derecha pero con distinto signo. Por ejemplo, tenemos

    \text{det} \left( \begin{matrix}  n_{3} & n_2 \\  k_{3} & k_2 \\  \end{matrix}\right)  =  -\text{det} \left( \begin{matrix}  n_{2} & n_1 \\  k_{2} & k_1 \\  \end{matrix}\right)  = \text{det} \left( \begin{matrix}  n_{1} & n_0 \\  k_{1} & k_0 \\  \end{matrix}\right) = 22\cdot 1 - 3 \cdot 7 = 1

    Este razonamiento lo podemos aplicar para cualquier i, obteniendo |n_i k_{i-1} - k_i n_{i-1}| = 1. Podemos comprobar también algunos casos mediante cálculo directo, por ejemplo: |n_2 k_1 - k_2 n_1| = |333\cdot 7 - 106 \cdot 22| = |2331-2332| = 1 . Esto nos permite decir que la diferencia entre dos aproximaciones consecutivas, será de

    \left| \cfrac{n_i}{k_i} - \cfrac{n_{i-1}}{k_{i-1}} \right| = \cfrac{|n_i k_{i-1} - k_i n_{i-1}|}{k_i k_{i-1}} = \cfrac{1}{k_i k_{i-1}} \leq \cfrac{1}{2k_i^2} + \cfrac{1}{2k_{i-1}^2}

    La última desigualdad la hemos sacado de que k_i^2 + k_{i-1}^2 \geq 2k_i k_{i-1}. Es decir, tenemos los números n_i/k_i y n_{i-1}/k_{i-1}, que distan menos de 1/(2k_i^2) + 1/(2k_{i-1}^2), y entre estos dos números está \pi. Por lo tanto, o bien n_i/k_i está a menos de 1/(2k_i^2) de distancia de \pi o bien n_{i-1}/k_{i-1} está a menos de 1/(2k_{i-1}^2) de distancia de \pi. Y si ahora dejamos variar i, tenemos que existen infinitas fracciones n/k tales que

    \left| \pi - \cfrac{n}{k}  \right| \leq \cfrac{1}{2k^2}

    Esto es, \pi es 2-aproximable. En general, podríamos haber hecho esto mismo con cualquier otro número irracional (para los racionales, llegamos a que r_i = 0 y no podemos continuar). Por tanto, todo número irracional es 2-aproximable. ¿Resuelve esto nuestro límite? Pues no, porque 2-aproximable es menos que 3-aproximable. Pero al menos resuelve el otro límite que nos propuso Gaussianos en Twitter:

    \displaystyle{\lim_{n\to \infty} \cfrac{1}{n \sin (n)}}

    El razonamiento es igual al que ya hicimos con el límite original, sólo que en este caso obtenemos 2-aproximabilidad en vez de 3-aproximabilidad. Y concluimos que este último límite no existe, porque \pi sí es 2-aproximable.

    En general, no deberíamos esperar más que esto, ya que la mayoría de los números son sólo 2-aproximables. ¿Por qué? El razonamiento intuitivo es más o menos el siguiente:

    Pongamos que tomamos un número aleatorio x entre 3 y 4. Para que x sea 3-aproximable con constante C tiene que pasar que haya infinitos n/k tales que x esté en el intervalo de centro n/k y de radio C/k^3. Para cada k, esos intervalos son de longitud 2C/k^3 y hay k intervalos distintos, luego la probabilidad de que x esté en uno de ellos es como mucho de 2C/k^2.

    En vez de fijar un k concreto, ahora nos fijamos en la probabilidad de que x esté en un intervalo para algún k > 1000. Esta probabilidad será menor que

    \cfrac{2C}{1001^2} + \cfrac{2C}{ 1002^2} + \cfrac{2C}{ 1003^2} + \ldots \approx 0.002C

    El número 0.002 lo podríamos hacer más y más pequeño cogiendo k > 100000, o el número que haga falta. La conclusión es que para todo \varepsilon > 0 (sea lo pequeño que sea) podemos escoger K (lo grande que haga falta) para que la probabilidad de que x esté en algún intervalo con k > K sea menos de \varepsilon. Pero si x es 3-aproximable con constante C, siempre tiene que caer en un intervalo con k > K (¡pues cae en infinitos intervalos!). Por tanto, para que x sea 3-aproximable tiene que pasar ese suceso de probabilidad \varepsilon. ¡Pero \varepsilon es tan pequeño como queramos!

    ¿Cuál es el único número no negativo menor que \varepsilon para todo \varepsilon > 0? Pues el 0. Es decir, la probabilidad de que x sea 3-aproximable con constante C es 0 (para cualquier C). Esto puede sonar extraño, porque tendemos a pensar que algo de probabilidad 0 es algo imposible, pero no es así. Por ejemplo, la probabilidad de sacar un 3 cuando se saca un número aleatorio entre 3 y 4 también es 0 (todos los números entre 3 y 4 tienen la misma probabilidad de ser elegidos, digamos p, pero como hay infinitos y la probabilidad total ha de sumar 1 tendremos que \infty \cdot p = 1, lo cual sólo puede ocurrir si p=0).

    La probabilidad de ser 3-aproximable, con cualquier constante, será nula también. Por tanto, los números 3-aproximables son excepcionalmente raros. Son tan raros que si cogemos 1000 números al azar (o la cantidad que sea), no esperaríamos que ni siquiera uno de ellos fuese 3-aproximable. Sin embargo, alguno sí que hay. ¿Un ejemplo? Pues el número

    \displaystyle{\sum_{n=0}^\infty 10^{-3^n}}

    Si tomamos la suma sólo hasta un n, obtenemos una fracción de denominador 10^{3^n}. Sin embargo, el error saldrá del orden del primer sumando que no tomemos, que es 10^{-3^{n+1}} = 10^{-3 \cdot 3^n} = \left( 10^{-3^n} \right)^3.

    Por lo tanto, cabe esperar que \pi no sea 3-aproximable, pero…¿podría darse la casualidad de que \pi fuese 3-aproximable? Pues no lo sabemos. Saber cómo de aproximable es \pi es un problema abierto. Como comentábamos al principio, este valor \alpha de aproximabilidad de \pi se conoce como medida irracional de \pi, y suele representarse como \mu(\pi).

    Hasta hace no mucho, la mejor cota que teníamos era \mu(\pi) \leq 7.606308 \ldots, debida a Vladislav Salikhov y su trabajo On the irrationality measure of \pi de 2008, publicado también en 2010 como On the measure of irrationality of number \pi en 2010 (por cierto, sólo he podido encontrar ambos papers en ruso, si alguien los encuentra en inglés que avise). Pero en diciembre de 2019, Doron Zeilberger y Wadin Zudilin demostraron que \pi no es 7.11-aproximable (más concretamente 7.103205334137\ldots-aproximable). Esto es, que la medida irracional de \pi es, como mucho, dicho valor. El trabajo en cuestión es The Irrationality Measure of Pi is at most 7.103205334137…, y puede leerse de manera gratuita. Esto, que \mu(\pi) \leq 7.103205334137\ldots, es lo mejor que se tenemos hasta la fecha, y esto nos dice, por ejemplo, que

    \displaystyle{\lim_{n \to \infty} \cfrac{1}{n^{6.11} \sin (n)} = 0}

    Recapitulando, sabemos que \pi es 2-aproximable y que no es 7.11-aproximable, y tenemos todo un rango de \alpha en el medio para el cual no sabemos nada. La mayoría de la comunidad científica piensa que \pi ha de ser sólo 2-aproximable, y, en ese caso, el límite planteado sería 0. Pero, de momento, tendremos que esperar a una prueba de ello.


    Como detalle final, comentar que todo esto de la medida irracional de \pi está relacionada con unas series numéricas denominadas series de Flint Hills, cuya convergencia (que no está demostrada) implicaría que \mu(\pi) \leq 2.5 y, en consecuencia, que el límite que ha generado este artículo es cero. Podéis leer algo sobre ellas en On convergence of Flint Hills series, de Max Alekseyev


    La imagen de Pi la he tomado de aquí.

    Print Friendly, PDF & Email
4.9 7 votes
Article Rating

¿Te ha gustado la entrada? Puedes invitarme a un café, Gauss te lo agradecerá 😉