Seguimos con la serie de entradas en las que Fernando Chamizo nos está introduciendo en el mundo de las sumas trigonométricas.


Ir al post anterior

Recapitulando, en el post anterior vimos unas figuras muy monas y prometimos dar una explicación cualitativa de \mathcal{F}, la primera de ellas. Esto requiere adentrarse un poco en la teoría de sumas e integrales oscilatorias.

Figura \mathcal{F}, proveniente de f(m)=m^{3/2}

Empecemos con algo muy sencillo, de nivel de bachillerato: la integral de un seno o de un coseno de frecuencia \nu (positiva) está siempre acotada con el inverso de la frecuencia, sea cual sea el intervalo en el que integremos

\displaystyle{   \Big|   \int_a^b   \cos(2\pi \nu x)\; dx   \Big|   \le \frac{C}{\nu}   \qquad\text{y}\qquad   \Big|   \int_a^b   sen(2\pi \nu x)\; dx   \Big|   \le \frac{C}{\nu}  }

Sí, ya lo sé, se podría poner C=1/\pi y eso es óptimo, pero en lo sucesivo usaremos C para representar una constante, no siempre la misma, porque no nos interesará demasiado su valor.

También nos va a convenir tratar simultáneamente senos y cosenos, y para ello es útil introducir la función e(x)=e^{2\pi i x}=\cos(2\pi x)+i \, sen(2\pi x). De esta forma lo anterior se resume en

\displaystyle{   \Big|   \int_a^b   e(\nu x)\; dx   \Big|   \le \frac{C}{\nu}  }

No hay nada de variable compleja aquí (es solo una forma de abreviar), y si no te gusta podrías pensar todo el rato en partes reales (cosenos) e imaginarias (senos) (aunque no es recomendable), de la misma manera que nadie escribe la ecuación de Schrödinger separando partes reales e imaginarias. No es tanto por algo físico, sino porque sería un rollo (ya sé que parte de los lectores no estarán de acuerdo). Abusando un poco, diremos que la primera figura \mathcal{F} es el conjunto de las 8000 primeras sumas parciales de \sum e\big(m^{3/2}\big), porque todos sabemos dibujar números complejos.

La prueba de las desigualdades es una tontería porque geométricamente lo positivo se cancela con lo negativo o porque todos sabemos integrar el seno y el coseno, y la constante viene del valor en los extremos. ¿Y qué ocurre si quitamos los extremos? Con esto de «quitar los extremos» me refiero a introducir una función f:\mathbb{R} \longrightarrow \mathbb{R} todo lo superbuena que quieras (con infinitas derivadas) tal que se anule fuera de [a,b]. Entonces ocurre algo que geométricamente ya no es nada evidente: resulta que la integral decrece bestialmente según aumenta la frecuencia. Si tú me das una f y un n \in \mathbb{Z}^+ yo te puedo dar una constante C=\mathcal{C}(f,n) tal que

\displaystyle{   \Big|   \int_{-\infty}^\infty   f(x)\; e(\nu x)\; dx   \Big|   \le \frac{C}{\nu^n}  }

Por ejemplo, si tu me das n=2019, estoy asegurando que la integral decrece para \nu grande como \nu^{-2019}, ¡guau, eso es muy rápido! Para este n quizá la constante sea enorme, pero a la larga las frecuencias dominan. La prueba consiste en integrar por partes con dv = e(\nu x)\; dx. Una primera integración da el decaimiento \nu^{-1} multiplicado por una integral, y aplicando sucesivas veces el mismo argumento a la integral resultante se obtiene el decaimiento \nu^{-n}. El procedimiento funciona también si f y sus derivadas no se anulan fuera de un intervalo sino que decaen rápido. El prototipo de ejemplo es

\displaystyle{   \int_{-\infty}^\infty   e^{-x^2}\; e(\nu x)\; dx   =\sqrt{\pi} e^{-\pi^2\nu^2}  }

Si uno dibuja la función e^{-x^2} \cos(10\pi x) difícilmente sospecharía que según esta fórmula su integral está entre cero y 10^{-100}, hay una cancelación casi perfecta pero no total.

Compliquemos más las cosas pensando en ondas e \big(\varphi(x)\big) que no tienen una frecuencia fija (porque \varphi no es lineal). Los físicos dicen que \varphi es la «fase». Gran parte del triunfo del cálculo infinitesimal se basa en que cualquier cosa que se precie es lineal en pequeños intervalos y \varphi(x)\approx \varphi(x_0)+\varphi'(x_0)(x-x_0) sugiere que \varphi'(x) es en algún sentido la frecuencia en x. Si
\varphi' > \nu_0 > 0, que es como decir que las frecuencias son al menos \nu_0, para \varphi' monótona se conoce un análogo de lo que hemos visto antes:

\displaystyle{   \Big|   \int_a^b   e\big(\varphi(x)\big)\; dx   \Big|   \le \frac{C}{\nu}  }

con C una constante de verdad, independiente de \varphi. Esencialmente esto se sigue del cambio u=\varphi(x). Si queremos reproducir el caso sin extremos, con la f y una ganancia mayor, entramos en problemas porque necesitamos controlar varias derivadas, y \nu_0 solo controla la primera. Para forzar que todas las derivadas estén dentro de la misma escala dada por un parámetro \lambda, podemos cambiar \varphi por \lambda \varphi y estudiar el comportamiento en \lambda. Así para \varphi' mayor que una constante positiva se tiene (de nuevo con un cambio de variable e integrando por partes)

\displaystyle{   \Big|   \int_{-\infty}^\infty   f(x)\; e\big(\lambda \varphi(x)\big)\; dx   \Big|   \le \frac{C}{\lambda^n}   \qquad\text{con}\quad\lambda\in\mathbb{R}^+,   \quad n\in\mathbb{Z}^+  }

donde ahora C no es constante hasta que no hemos fijado f, \varphi y n.

Si \varphi' se anula en algún punto el método colapsa, pues al cambiar u=\varphi(x) el dx da lugar a un infinito. Por otra parte, por mucho que \varphi' se anule, e\big(\lambda \varphi(x)\big) sigue siendo acotada y nada revienta. Es problema del método, no de la integral. Por ejemplo, una variante de la integral gaussiana (de Gauss, no del blog) es

\displaystyle{   \int_{-\infty}^\infty   e^{-x^2}\; e(\lambda x^2)\; dx   =\sqrt{\frac{\pi i}{2\pi\lambda-i}}   \approx   \frac{e(1/8)}{\sqrt{2\lambda}}  }

con buena aproximación para \lambda grande y positivo.

Una variante de la variante es que para a\in\mathbb{R} y b\in\mathbb{R}^+

\displaystyle{   \int_{-\infty}^\infty   e^{-x^2}\; e\big(\lambda(a+b (x-x_0)^2)\big)\; dx   \approx   \frac{e^{-x_0^2}}{\sqrt{2\lambda b}}   \, e(1/8 +\lambda a)  }

Si tenemos una función \varphi que tiene un único punto crítico en x_0, entonces cerca de x_0 es muy parecida a a+b (x-x_0)^2, con a=\varphi(x_0) y b=\frac{1}{2} \varphi^{\prime\prime}(x_0), de lo cual inferimos que si \varphi^{\prime\prime}(x_0) > 0

\displaystyle{   \int_{-\infty}^\infty   e^{-x^2}\; e\big(\lambda \varphi(x)\big)\; dx   \approx   \frac{e^{-x_0^2}}{\sqrt{\lambda \varphi^{\prime\prime}(x_0)}}   \, e\big(1/8 +\lambda \varphi(x_0)\big)  }

siempre con \lambda grande y positivo. ¿Tiene sentido que los puntos que no estén cercanos a x_0 no sean relevantes? Sí, porque en ellos la frecuencia \lambda\varphi' será grande y sabemos que hay un decaimiento rapidísimo. Todavía más, por la misma razón solo importa la parte de e^{-x^2} cercana a x_0, y por tanto es lícito cambiar e^{-x^2} por e^{-x^2_0}f(x)/f(x_0) ya que coinciden en x=x_0. En definitiva, se obtiene lo que en física (y también en matemáticas) se llama «principio de fase estacionaria»:

\displaystyle{   \int_{-\infty}^\infty   f(x)   e\big(\lambda\varphi(x)\big)\; dx   \approx   \frac{f(x_0)}{\sqrt{\lambda \varphi^{\prime\prime}(x_0)}}   \,   e\big(1/8+\lambda\varphi(x_0)\big)  }

Aquí las hipótesis son que \varphi y f sean buenas, f decaiga rápido y \varphi tenga un único punto crítico en x_0 (si hubiera más, se sumaría la contribución de ellos) con \varphi^{\prime\prime}(x_0) > 0 (para máximos hay algo similar). Es un instrumento fundamental para entender diversos fenómenos. Como su nombre indica, afirma que el grueso de una integral proviene de los puntos en los que la frecuencia es nula.

Ahora, como estamos en ciencia, vamos con los recortes. Si quitamos la f y a cambio integramos en un intervalo finito, habrá alguna influencia de los extremos, pero no será fundamental si el punto crítico está bien en el interior del intervalo. Por otro lado, si suponemos que \lambda ya está incorporada en la fase \varphi, podemos suprimirla. Esto requiere alguna hipótesis sobre el tamaño relativo de las derivadas de orden superior y del intervalo. En suma, esperamos

\displaystyle{   \int_{a}^b   e\big(\varphi(x)\big)\; dx   \approx   \frac{e\big(1/8+\varphi(x_0)\big)}{\sqrt{ \varphi^{\prime\prime}(x_0)}}  }

Respiremos por un momento. Ya hemos tenido bastante de integrales trigonométricas, vamos ahora con una suma trigonométrica, el núcleo de Dirichlet, que es tan sencilla que la sabemos evaluar explícitamente:

\displaystyle{   \sum_{n=-N}^N   e(-nt)   =   \frac{sen\big(\pi(2N+1)t\big)}{sen(\pi t)}  }

Si alguien está musitando avergonzado «pues yo no sé evaluarla», solo tiene que notar que es la suma de una progresión geométrica (en esta entrada hablamos sobre ellas).

La gracia del núcleo de Dirichlet es que está compuesto por picos de altura h=2N+1 sobre los enteros y de anchura esencialmente h^{-1}. Por ello, para una función decente f y cualquier n\in\mathbb{Z} se debe tener

\displaystyle{   f(n)   \approx   \int_{n-1/2}^{n+1/2}   f(t)   \sum_{n=-N}^{N}   e(-nt)\; dt  }

y la aproximación será mejor cuanto mayor sea N. Esta idea aplicada a f(t)=e(t^{3/2}) nos da para las sumas parciales de la primera figura \mathcal{F}

\displaystyle{   \sum_{m=1}^k   e\big(m^{3/2}\big)   \approx   \sum_{n=-N}^N   \int_{1/2}^{k+1/2} e\big(t^{3/2}-nt\big)\; dt,   \qquad   \text{con } N \text{ grande}  }

Teníamos una suma oscilatoria y ahora tenemos una suma de integrales oscilatorias, ¿no es eso complicar las cosas? No si volvemos a coger las tijeras de recortar. La fase de las integrales es \varphi(t)=t^{3/2}-nt. Si n fuera mucho menor que 0 o mucho mayor que \frac{3}{2}\sqrt{k}, la frecuencia \varphi'(t)=\frac{3}{2}t^{1/2}-n sería grande en todo el intervalo de integración y con lo que sabemos la integral pequeña. Esto sugiere que en vez de tomar un N astronómico nos basta limitarnos a 0 \le n\le \frac{3}{2}\sqrt{k}. Esto ya es una gran ventaja, porque hemos pasado de los k sumandos de la suma parcial a del orden de la raíz de k. En este rango de n, la fase tendrá un punto crítico:

\displaystyle{   \varphi'(x_0)=0   \ \Rightarrow\   x_0=\frac{4}{9}n^2   \quad \Rightarrow\quad   \varphi^{\prime\prime}(x_0)=   \frac{9}{8n}  }

Y la variante recortada del principio de fase estacionaria da

\displaystyle{   \sum_{m=1}^k   e\big(m^{3/2}\big)   \approx   \frac{\sqrt{8}}{3}   \sum_{0\le n\le \frac{3}{2}\sqrt{k}}   \sqrt{n}   \,   e\Big(   \frac{1}{8}-\frac{4}{27}n^3   \Big)  }

Esta es una aproximación notable. En primer lugar, si pintamos el segundo miembro con k variable veremos que reproduce con gran precisión las «verrugas» de \mathcal{F}, donde se acumulan la mayor parte de los puntos. En las siguientes figuras se muestran los puntos a los que da lugar la aproximación y lo que resulta al unirlos superpuesto sobre \mathcal{F}. La precisión es muy llamativa, habida cuenta de que las aproximaciones anteriores le habrán parecido sospechosas incluso al más ingeniero:

Segundo miembro

\mathcal{F} y segundo miembro uniendo los puntos

No solo nuestra flamante aproximación tiene menos términos y aproxima muy bien, sino que es mucho más sencilla porque e\big(m^{3/2}\big) da lugar a oscilaciones inarmónicas difíciles de estudiar mientras que e\big(\frac{1}{8}-\frac{4}{27}n^3\big) tiene periodo nueve, es constante para los valores que difieren en un múltiplo de nueve. Una consecuencia de ello, despejando \frac{3}{2} \sqrt{k}=9l, es que cada tesela que conforma el dibujo proviene de 36l^2\le k < 36(l+1)^2, lo cual da la clave para entender la autosemejanza de \mathcal{F}.

¿Que no te convence? Pues si no estás exhausto te invitamos a que leas la última parte de esta historia, mucho más simple que esta, y tendrás una aproximación casi igual de buena que la anterior y sin sumas ni nada más complicado que una raíz cuadrada.

Ir al siguiente post

La imagen principal es la representación de la colección de puntos \big\{(n,sen (n))\big\}_{n=1}^{5000}.

Print Friendly, PDF & Email
0 0 votes
Article Rating

¿Te ha gustado la entrada? Puedes invitarme a un café, Gauss te lo agradecerá 😉


Comparte: