Autor Tema: MINITUTORIAL DE CÁLCULO VARIACIONAL CON EJEMPLOS

0 Usuarios y 1 Visitante están viendo este tema.

08 Agosto, 2015, 11:52 pm
Leído 4371 veces

Piockñec

  • $$\pi \pi \pi \pi \pi \pi$$
  • Mensajes: 1,259
  • Karma: +1/-0
  • Sexo: Masculino
CÁLCULO DE VARIACIONES

ÍNDICE

EL OBJETIVO DEL CÁLCULO DE VARIACIONES

LA TEORÍA BÁSICA DEL CÁLCULO DE VARIACIONES

PRIMER EJEMPLO DE CÁLCULO DE VARIACIONES. CURVA QUE GENERA SUPERFICIE DE REVOLUCIÓN DE ÁREA MÍNIMA

          - PRIMER EJEMPLO DE CÁLCULO DE VARIACIONES REPRISE

SEGUNDO EJEMPLO DE CÁLCULO DE VARIACIONES. DISTANCIA MÁS CORTA ENTRE DOS CIRCUNFERENCIAS

TERCER EJEMPLO DE CÁLCULO VARIACIONAL. EL PROBLEMA ISOPERIMÉTRICO

CUARTO EJEMPLO DE CÁLCULO DE VARIACIONES.CURVA QUE DETERMINA LA DISTANCIA MÍNIMA ENTRE HELICES

          - CUARTO EJEMPLO DE CÁLCULO DE VARIACIONES REPRISE. CILÍNDRICAS

LA PERSPECTIVA DE LAGRANGE



EL OBJETIVO DEL CÁLCULO DE VARIACIONES

Considérese esta integral definida entre dos puntos fijos:

\( M=\displaystyle\int_{0}^{1}y(x)y'(x) \)

Si consideramos las funciones \( y_1=x,y_2=x^2,y_3=\sin(x),y_4=e^x \), obtendremos los siguientes resultados:

\( M_1=0.5,M_2=0.5,M_3=\dfrac{\sin(1)^2}{2}\approx{}0.35,M_4=\dfrac{e^1-1}{2}\approx{}0.85914 \)

Como se puede observar, según la función que introduzcamos, obtendremos un numerito distinto. El objetivo del cálculo de varaciones, es tratar de encontrar qué curva hace mínima (o máxima) esta integral.

Libro guía (gratuito, y de 100 páginas)

El libro se llama Cálculo de variaciones, de José Echegaray, premio Nobel de Literatura e ingeniero español del siglo XIX, el siglo del Romanticismo, de los inventos y del Electromagnetismo. El link que hemos puesto redirige a la Biblioteca digital de la Comunidad de Madrid, donde se puede descargar online gratuitamente para disfrute de todos.

En un comentario final re-enseñaremos desde 0 todo muy rápidamente desde otra perspectiva, la perspectiva de Lagrange, que es más modernilla, y además, y esto es lo importante, se puede aplicar para deducir cómo minimizar integrales que sean de superficie, de volumen... Esta perspectiva es la que enseñan la mayoría de los libros modernillos, pero como por la web lo explican tan, tan mal, pasaremos a explicarlo nosotros, que no vamos a ser menos, y también lo explicaremos mal ;)

Sobre la palabra modernillo
Muchos me habéis preguntado, ya sea por mensaje privado o por correo electrónico, por paloma mensajera o por mensaje en botella, qué quiero decir con que algo es modernillo. Comprendo vuestra curiosidad, y es que ya he usado varias veces la palabra modernillo y la seguiré usando a lo largo de este texto, así que procedo a definirla con precisión: modernillo es para mí, todo lo que se escriba a partir de que acabara el siglo XIX, es decir, a partir del año 1900. La conferencia que Max Planck ofreció el 14 de diciembre de 1900 acerca de la radiación de cuerpo negro, y que nadie oyó, da una idea de que mi criterio, cual precisa navaja estereotipadora de conceptos abstractos, es bastante acertado.
[cerrar]


LA TEORÍA BÁSICA DEL CÁLCULO DE VARIACIONES

Cuando uno tiene un mínimo, o un máximo, en una función \( f(x) \), la primera derivada se anula. Esto quiere decir, que si desarrollamos en Taylor alrededor del punto que es mínimo \( x=x_m \), el desarrollo de Taylor de orden 0 será:

\( f(x)=f(x_m)+O(x-x_m) \)

Y el de orden 1 tambíen será:

\( f(x)=f(x_m)+O((x-x_m)^2), \)

ya que la primera derivada se anula. Y ya el de orden 2, tendrá más términos.

Dicho de otra forma, cuando en una función se tiene un máximo, un pequeño cambio en la x supone que el valor de la función sigue siendo el mismo, prácticamente. Así que la estrategia será movernos con curvas muy muy próximas a la óptima, y tratar de determinar así su forma.

De esta forma, si el valor de la función óptima es \( y(x) \), y el de la función casi óptima es \( y_v(x) \), con v de variación, y el integrando es una función \( V(x,y,y') \), un pequeño cambio en la curva provocará un cambio en V. La diferencia de valores (variación), será:

\( M=\displaystyle\int_{x_0}^{x_f}V(x,y,y')dx \)
\( \delta M=\delta \displaystyle\int_{x_0}^{x_f}V(x,y,y')dx \)

La diferencia de valores de la integral vendrá dado por la integral de la diferencia de valores del integrando, puesto que \( x_0,x_f \) no son variables, son puntos fijos. Evaluamos la diferencia entre el integrando evaluado en la función óptima, y el integrando evaluado en la función muy muy cercana a la óptima pero que no es óptima (pero que tienen ambas, sin embargo, casi el mismo valor de la integral, por las razones que antes mencioné sobre los máximos y el Taylor de orden 1 que se anulaba, etc.):

\( V_{v}(x,y_v,y'_v)-V(x,y,y')=V(x,y,y')+\dfrac{\partial V}{\partial y}\delta y +\dfrac{\partial V}{\partial y'}\delta y' +O(\delta y^2,\delta y'^2) -V(x,y,y')=\dfrac{\partial V}{\partial y}\delta y +\dfrac{\partial V}{\partial y'}\delta y'+O(\delta y^2,\delta y'^2) \)

Sustituyendo, y quitándonos de en medio los términos de orden igual o superior a 2, igualamos a 0: ya que sólo estamos interesados en las condiciones en los que los términos de orden 1 se anulan (razonamiento sobre el desarrollo de taylor de orden 1...).

\( \delta M=\delta \displaystyle\int_{x_0}^{x_f}V(x,y,y')dx=\displaystyle\int_{x_0}^{x_f}(\dfrac{\partial V}{\partial y}\delta y +\dfrac{\partial V}{\partial y'}\delta y')dx=0 \)

A partir de ahora, denominaré \( Y=\dfrac{\partial V}{\partial y},Y'=\dfrac{\partial V}{\partial y'},... \), y con esa nomenclatura queda:

\( \delta M=\displaystyle\int_{x_0}^{x_f} (Y\delta y+Y'\delta y')dx=0 \)

Siendo \( y(x) \) la función óptima que pretendemos encontrar.

Pequeño conocimiento necesario para el siguiente razonamiento
Cuando tenemos una igualdad a 0 así:

\( Ax+By+Cz=0 \)

donde \( A,B,C \) son constantes, y donde \( x,y,z \) pueden tomar cualquier valor siempre, con independencia entre sí, entonces para que sea 0, necesariamente \( A=0,B=0,Z=0 \). Toménse por ejemplo \( (x,y,z)=(1,0,0),(0,1,0),(0,0,1) \), se deducirá de estos valores que \( A=0 \), \( B=0 \), etc. La premisa principal, es que tanto A, como B, como C, no son funciones de x, ni de y, ni de z, y tanto x, como y, como z, no son funciones unas de las otras.

Si \( x=x(z) \), entonces uno reorganizaría todo para que quedara: \( Dz+Ey=0 \), y ahora sí se aplicaría (\( D=0,E=0 \)).

Y esto es lo que está sucediendo ahora en la integral.

[cerrar]

Para que la integral dé 0, es necesario que el integrando sea 0. Y por el razonamiento del spoiler, si tanto las variaciones que se producen en y (es decir, la diferencia de valores entre la función óptima y la variante), como las que se producen en y', son independientes, sus coeficientes han de ser 0. Pero es que no lo son.

Es evidente, que si tenemos la función óptima, tendremos su derivada con tan solo derivar. Así que las variaciones en y' no son independientes de las variaciones en y. De hecho, podría decirse que: \( \delta y'_p=\dfrac{\delta y_p-\delta y_{p-1}}{\Delta x} \) para un punto cualquiera de la curva.

Echegaray demuestra en su libro todas las cosas recurriendo a la definición de integral (como suma infinita) y sustituyendo esta relación que acabo de poner, y reorganizando términos. Ese modo de proceder regresando a la definición de derivada y jugando con el álgebra se debe a Euler. Al final, lo que hace es demostrar la integración por partes.

Aquí la aplicaremos directamente, y la motivación surge del siguiente razonamiento: Tengo \( \delta y, \delta y' \), pero no quiero esa derivada en mi integral. ¿Cómo la quito? La integración por partes integra un término, y deriva el otro. Pues integraré ese delta, y derivaré su coeficiente. Voilà!

\( \delta M=\displaystyle\int_{x_0}^{x_f} (Y\delta y+Y'\delta y')dx=\displaystyle\int_{x_0}^{x_f} (Y\delta y)dx+\displaystyle\int_{x_0}^{x_f} (Y'\delta y')dx \)

\( \displaystyle\int_{x_0}^{x_f} (Y'\delta y')dx=Y'\delta y]^{x_f}_{x_0}-\displaystyle\int_{x_0}^{x_f} (\dfrac{dY'}{dx}\delta y)dx \)

Es decir,

\( \delta M=Y'\delta y]^{x_f}_{x_0}+\displaystyle\int_{x_0}^{x_f} (Y\delta y-\dfrac{dY'}{dx}\delta y)dx=0 \)

\( \delta M=Y'\delta y]^{x_f}_{x_0}+\displaystyle\int_{x_0}^{x_f} (Y-\dfrac{dY'}{dx})\delta y dx=0 \)

Para que sea 0, tanto la integral debe ser 0, como lo que se evalúa a la izquierda. Tenemos dos condiciones:

Condición de límites:

\( Y'\delta y]^{x_f}_{x_0}=Y'_f\delta y_f-Y'_0 \delta y_0=0 \)

Condición del integrando (o de la integral, o de la ecuación diferencial, o de Euler-Lagrange ;) )

\( Y-\dfrac{dY'}{dx}=0 \)

En este caso concreto, \( \delta y_0,\delta y_f \) son 0, ya que la curva casi-óptima que difiere de la curva óptima, diferirá en todos los puntos salvo en los extremos, que son puntos fijos. Así que la condición de límites se cumple automáticamente. Sin embargo, como se verá en los ejemplos, no sólo se puede hacer cálculo variacional con puntos fijos.

Así, por ejemplo, dadas dos curvas cerradas cualesquiera (dos círculos por ejemplo) separadas a cierta distancia, podemos buscar cuál es la curva que las une que tiene menor longitud. Entonces en la condición de límites habrá que añadir un término más, por el hecho de que los límites no son fijos, sino que varían por las dos curvas. El cálculo de variaciones nos dirá qué puntos concretos son los que delimitan la curva, junto con su forma. También, al variar en los puntos inicial y final las \( x \), variarán sus \( y \) respectivas, y por tanto \( \delta y_0,\delta y_f \) no serán automáticamente 0. De hecho, serán \( \delta x_0-y'\delta y_0 \)... pero esto ya lo explicaré en el ejemplo 2, cuando llegue su momento.

Otra variante de problema de cálculo de variaciones es que tengamos \( V(y,y',y'',y'''...) \) en el integrando. Entonces sólo cambia que habrá más condiciones de límite del tipo \( Y''\delta y']^f_0,Y'''\delta y'']^f_0 \), etc, además de que en la ecuación diferencial tendremos \( Y-\dfrac{dY'}{dx}+\dfrac{d^2Y''}{dx^2}-... \)

También puede suceder que \( V(x,y,y',...,z,z',z'',...) \), es decir, que haya dos funciones en vez de una dentro de la integral. Si las dos funciones no están relacionadas de ninguna manera, cada una se resuelve por separado (cada una con su condición de límite, y con su condición de integral). Si tienen relación, entonces hay que hacer una modificación, ya que al ser una función de otra en cierto sentido, como sabemos por el spoiler de este post, no podemos igualar a 0 sus coeficientes del tirón, sino que hay que reorganizar el integrando, o integrar por partes, o hacer algo. En concreto, se sustituye la relación que tienen las variaciones, quedando una única ecuación diferencial en x,y,z, y luego se sustituye la relación que tienen y,z, quedando dicha ecuación en y,x, o en z,x. En el ejemplo 4 se resuelve un problema en el que \( y \) y \( z \) están relacionados.


PRIMER EJEMPLO DE CÁLCULO DE VARIACIONES. CURVA QUE GENERA SUPERFICIE DE REVOLUCIÓN DE ÁREA MÍNIMA

Determinar en el plano de las xy una curva, que pase por los puntos \( (x_0,y_0),(x_1,y_1) \), tal que girando alrededor del eje de las x engendre la superficie de revolución de área mínima.

El diferencial de superficie será un disquito de radio \( y \) y espesor \( ds \), de tal suerte que \( ds=\sqrt[ ]{1+y'^2}dx \), así que la integral a minimizar es:

\( 2\pi M=2\pi\displaystyle\int_{x_0}^{x_1}y\sqrt[ ]{1+y'^2}dx \)

Al ser la derivada máxima del integrando de primer orden, la variación será:

\( \delta M=Y'\delta y]^{x_0}_{x_1}+\displaystyle\int_{x_0}^{x_1}(Y-\dfrac{dY'}{dx})\delta y dx \)

Donde \( Y=\dfrac{d(y\sqrt[ ]{1+y'^2})}{dy} \), Y'=\( Y=\dfrac{d(y\sqrt[ ]{1+y'^2})}{dy'} \).

Ha de ser 0 tanto lo de dentro de la integral (Condición del integrando), como lo de fuera (Condición de límites).

Condición de límites

\( Y'\delta y]^{x_0}_{x_1}=Y'_1\delta y_1-Y'_0\delta y_0=0 \)

Los límites son fijos, ya que busco la curva que pasa por dos puntos fijos en los extremos laterales del dominio. Así que esta ecuación se satisface automáticamente al ser \( \delta y_0=0 \) y \( \delta y_1=0 \)

Condición del integrando

Igualando el integrando a 0, llego a la siguiente ecuación diferencial:

\( 1+y'^2=yy'' \)

Para resolverla, al tener sólo y, reduzco el orden así:

\( y'=u\Rightarrow{}y''=\dfrac{du}{dx}=\dfrac{du}{dy}\dfrac{dy}{dx}=u\dfrac{du}{dy} \)

Sustituyendo,

\( 1+u^2=yu\dfrac{du}{dy} \)

Que es de variables separables. Las separo:

\( \displaystyle\int \dfrac{udu}{1+u^2}=\displaystyle\int \dfrac{dy}{y} \)
\( \sqrt[ ]{1+u^2}=ay \)
\( 1+y'^2=a^2y^2 \)

Otra vez de variables separables. Las separo:

\( \displaystyle\int \dfrac{dy}{\sqrt{Cy^2-1}}=\displaystyle\int dx \)

Esta integral o te la sabes como la integral del arcocoseno hiperbólico, o la calculas así.

\( x+D=\dfrac{arccosh(Cy)}{C} \)

\( y=\dfrac{\cosh(Ax+B)}{A} \)

Curva que se llama catenaria. ¡Qué bonito!

Nota final: Lo último que yo haría, si estuviera de verdad interesado por la curva particular que pasa por los puntos concretos \( (x0,y0),(x1,y1) \), sería despejar las dos constantes de integración del siguiente sistema de ecuaciones no lineales:

\( y_0=\dfrac{\cosh(Ax_0+B)}{A} \)
\( y_1=\dfrac{\cosh(Ax_1+B)}{A} \)


PRIMER EJEMPLO DE CÁLCULO DE VARIACIONES REPRISE.

En el libro mecanica clasica, de H. Goldstein, se resuelve el mismo problema partiendo de otra integral, que se expone a continuación.

Determinar en el plano de las xy una curva, que pase por los puntos \( (x_0,y_0),(x_1,y_1) \), tal que girando alrededor del eje de las x engendre la superficie de revolución de área mínima.


Si nos restringimos al dominio de las superficies de revolución, tomando una alrededor del eje y tenemos la siguiente integral a minimizar:

\( 2\pi M=2\pi\displaystyle\int_{x_0}^{x_1}x\sqrt[ ]{1+y'^2}dx \)

De esta forma \( \dfrac{{\partial f}}{{\partial y}}=0 \) y entonces:

\( \dfrac{d}{dx}(\dfrac{{\partial f}}{{\partial y'}})=0 \) \( \Rightarrow{}\dfrac{{\partial f}}{{\partial y'}}=a=cte. \)

Y nos ahorramos una integración,

\( \dfrac{xy'}{\sqrt{1+y'^2}}=a \)

Despejando,

\( \dfrac{dy}{dx}=\dfrac{a}{\sqrt{x^2-a^2}}  \).

Llegando a la misma solución, la catenaria. ¡Qué bonito!


SEGUNDO EJEMPLO DE CÁLCULO DE VARIACIONES. DISTANCIA MÁS CORTA ENTRE DOS CIRCUNFERENCIAS

Se trata de determinar cuál es la distancia más corta entre dos circunferencias, en concreto estas:

\( x^2+y^2=1 \)

\( (x-4)^2+y^2=2^2 \)

Primera forma de plantearlo (con trampa)

Una primera idea pudiera ser la siguiente:

La distancia entre dos puntos cualesquiera es:

\( d(x_1,x_2,y_1,y_2)=\sqrt{(x_1-x_2)^2+(y_1-y_2)^2} \)

Función cuyos mínimos coinciden con los de:

\( d=(x_1-x_2)^2+(y_1-y_2)^2 \)

sujeto a:

\( \left\|{(x_1,y_1)-(x_{R_1},y_{R_1})}\right\|^2=R_1^2 \)
\( \left\|{(x_2,y_2)-(x_{R_2},y_{R_2})}\right\|^2=R_2^2 \)

Donde \( x_1,y_1,x_2,y_2 \) son las coordenadas del punto de partida de la curva en las circunferencias 1 y 2, respectivamente (lo que buscamos) y \( R_1,R_2 \) corresponde al radio de las circunferencias como número, y como subíndice a la posición del centro de dichas circunferencias.

Esto no se llama cálculo de variaciones. Es minimización de funciones de varias variables. Y el resultado da los puntos correctos de los dos círculos de los que parte la curva solución.

¿Cómo es posible que estemos resolviendo un problema de minimización de una integral, que es el objetivo del cálculo de variaciones, que involucra ecuaciones diferenciales, con un simple problema de minimización de una función de varias variables?
Respuesta: Porque al minimizar esta función estamos suponiendo implícitamente que la curva solución es una línea recta, como efectivamente es. Pero si no fuera una línea recta, ya no valdría.
[cerrar]

Planteamiento mediante cálculo de variaciones

Se trataría de buscar la curva que parte de un punto de un círculo y que llega a un punto del otro círculo. Curvas hay muchas, pero hay que buscar la curva cuya longitud sea mínima.

La longitud de una curva cualquiera es:

\( M=\displaystyle\int_{x_0}^{x_f} \sqrt[ ]{1+y'^2}dx \)

Si \( x_0 \) es la coordenada x del primer punto de la curva, que a su vez es un punto del primer círculo, \( y(x_0) \) pertenecerá al primer círculo. Es decir, debemos imponer la siguiente relación:

\( x_0^2+y(x_0)^2=1 \)

Si \( x_f \) es la coordenada x del último punto de la curva, que a su vez es un punto del segundo círculo, \( y(x_f) \) pertenecerá al segundo círculo. Es decir, debemos imponer la siguiente relación:

\( (x_f-4)^2+y(x_f)^2=2^2 \)

Observación: El planteamiento es idéntico al del spoiler, sólamente que ya no calculamos la longitud de la curva como si de un segmento recto se tratase, sino con la integral correspondiente a una curva arbitraria.

Para minimizar M, calculamos su variación, e imponemos que valga 0. De esta forma, encontraremos puntos críticos (curvas críticas en realidad) que con un poco de suerte serán mínimos, y no máximos. Tenemos que tener en cuenta, no obstante, que ya no nos encontramos con una integral cuyos límites son "números", puntos fijos, sino puntos que se mueven: \( x_0 \) se mueve por el primer círculo, y \( x_f \) se mueve por el segundo círculo.

Echeilustración
[cerrar]


En la imagen, \( V=\sqrt[ ]{1+y'^2} \) es lo que queremos integrar, y evaluando esta expresión con dos y(x), en concreto la y(x) que minimiza la integral, y otra y(x) infinitamente próxima a esta, pero distinta (una variación), se ven dos curvas: La primera, la que está en negrita, cuyas x van de P a Q, y su área delimitada por una línea negrita (PABQ), es la curva antes de la variación, la curva ideal perfecta y que minimiza la integral. La segunda curva, que está un poco más arriba, es idéntica a la primera, salvo que está desplazada un poco hacia arriba (es una variación, ese desplazamiento hacia arriba se supone que es infinitamente pequeño), y también se desplaza hacia los laterales, pues en este caso, como ya he dicho, las x no son fijas, se desplazan; y al hacer la variación sobre la curva, debemos variar los límites (no queremos hacer variaciones sobre dos puntos fijos, sino sobre todos ellos). Quiero recordar una vez más que en el mínimo de una función, si nos movemos un poquito (variación de primer orden), el valor de la función sigue siendo prácticamente el mismo.

La diferencia entre las áreas que encierran las dos curvas, es:
La variación del área de las dos curvas por todo su dominio, es decir, desde P hasta Q + el área añadida por el desplazamiento hacia la derecha (que será \( \left |{Q'-Q}\right |V(Q)=V(Q)\delta x_Q \), cometiendo un error infinitesimal (el error sería el área BDB's, que como ya dije su altura es infinitamente pequeña al ser variación de primer orden en un mínimo)) + el área eliminada por el desplazamiento a la derecha desde la izquierda \( (-| P'-P |V(P)=-V(P)\delta x_P) \)

En resumen, la variación queda así:

\( \delta M=V(x_f)\delta x_f-V(x_0)\delta x_0+\delta \displaystyle\int_{x_0}^{x_f} \sqrt[ ]{1+y'^2}dx \)

Para la variación de esta integral, si utilizáramos a ciegas las relaciones que se dedujeron en la teoría al principio para integrales con límites fijos, tendríamos:

\( \delta M=V(x)\delta x]^f_0 + Y'\delta y_{unicamente}]^f_0 + \displaystyle\int_{x_0}^{x_f} (Y-\dfrac{dY'}{dx})\delta y dx \)

Sin embargo, esta expresión es incorrecta, ya que los puntos no varían únicamente en y (\( \delta y \)), sino también en x (\( \delta x \)). La corrección es sencilla.
Si variaran únicamente en y, la expresión anterior sería válida. Si no varían únicamente en y, es decir, \( \delta y=\delta y (\delta x) \), como es nuestro caso al moverse los extremos por circunferencias, podemos deducir la corrección con un desarrollo de Taylor en torno a lo que ya conocemos, la variación únicamente en y \( \delta y_{vertical} \) (recordemos la estrategia general del cálculo de variaciones: Tomamos una curva casi óptima y con ella obtenemos la óptima. De esta forma, todos los desarrollos de Taylor de orden 1 se legitimizan):

\( \delta y=\delta y_{vertical}+y'\delta x\longrightarrow{}\delta y_{vertical}=\delta y-y'\delta x \)

Sustituyendo, queda:

\( \delta M=V(x)\delta x]^f_0 + Y'(\delta y-y'\delta x)]^f_0 + \displaystyle\int_{x_0}^{x_f} (Y-\dfrac{dY'}{dx})(\delta y -y'\delta x)dx=0 \)

Ya he impuesto que debe ser 0. Para que eso se cumpla, (1) \( V(x)\delta x]^f_0 + Y'(\delta y-y'\delta x]^f_0 =0 \) y por otro lado, (2) \( Y-\dfrac{dY'}{dx}=0 \)

Resolución del problema

Condición del integrando

\( Y-\dfrac{dY'}{dx}=0 \)

\( Y=\dfrac{d(\sqrt[ ]{1+y'^2})}{dy}=0 \)

\( Y'=\dfrac{d(\sqrt[ ]{1+y'^2})}{dy'}=(1+y'^2)^{-\dfrac{1}{2}} \)

\( \dfrac{dY'}{dx}=\dfrac{y''(1+y'^2)^{\dfrac{1}{2}}-y'^2y''(1+y'^2)^{\dfrac{-1}{2}}}{1+y'^2} \)


\( Y-\dfrac{dY'}{dx}=0-\dfrac{y''(1+y'^2)^{\dfrac{1}{2}}-y'^2y''(1+y'^2)^{\dfrac{-1}{2}}}{1+y'^2}=0\rightarrow{}y''=0 \)

Es decir, la ecuación de la recta:

Integro una vez:
\( y'=A \)

Integro otra vez:
\( y=Ax+B \)

Condición de límites

\( V(x)\delta x]^f_0 + Y'(\delta y-y'\delta x)]^f_0=0 \)

Como se explicó en la teoría, cuando se iguala una ecuación a 0, cada coeficiente deberá ser 0 si los términos a los que multiplica no son 0 en general, bajo la condición de que dichos coeficientes sean independientes. Por ejemplo, en esta integral:

\( \displaystyle\int_{x_0}^{x_f} (Y-\dfrac{dY'}{dx})\delta y dx=0 \)

\( \delta y \) no es, en general, 0 siempre para todo el dominio. Como su coeficiente \( (Y-\dfrac{dY'}{dx}) \) no es una función de \( \delta y \) (lo que se perseguía al integrar por partes en la teoría), entonces este principio aplica, y el coeficiente \( (Y-\dfrac{dY'}{dx}) \) es el que debe ser 0.

Ahora tenemos el problema de que existe una relación entre \( \delta x_0 \) y \( \delta y_0 \), ya que los puntos por los que nos movemos no son "libres": Al integrar sólo podemos movernos por puntos del círculo. Así que hay que encontrar, a partir del círculo, la relación entre \( \delta x \) y \( \delta y \).

La ecuación del primer círculo (en el que está \( x_0 \)) es:

\( x^2+y^2=1 \)

Diferenciando,

\( 2x\delta x+2y\delta y=0 \)

\( \delta x_0 = \dfrac{-y}{x} \delta y \)

La ecuación del segundo círculo (en el que está \( x_f \)) es:

\( (x-4)^2+y^2=4 \)

Diferenciando,

\( 2(x-4)\delta x+2y\delta y=0 \)

\( \delta x_f=\dfrac{-y}{x-4}\delta y_f \)

Ahora sí, resolvemos la condición de límites:

\( V(x)\delta x]^f_0 + Y'(\delta y-y'\delta x]^f_0= \)
\( (1+y'^2)^{\frac{1}{2}}\delta x+y'(1+y'^2)^{\frac{-1}{2}}(\delta y -y'\delta x)]^f_0 \)

Sustituyendo el resultado de la condición del integrando, es decir, \( y=ax+b \), esta larga expresión se reduce a:

\( \delta x+y'\delta y]^f_0=0 \)

\( \delta x_f+y'_f\delta y_f-\delta x_0-y'_0\delta y_0=0 \)

Los desplazamientos \( \delta x_0 \) son independientes de los desplazamientos \( \delta x_f, \delta y_f \), pero no son independientes de \( \delta y_0 \), al movernos por los círculos. Ya calculamos la relación existente, así que es el momento de introducirlas:

\( \delta x_f(1-\dfrac{x_f-4}{y_f}a)-\delta x_0(1-\dfrac{x_0}{y_0}a)=0 \)

Como son independientes las magnitudes \( \delta x_f \) y \( \delta x_0 \), la única forma de que se anule la ecuación es que los coeficientes sean 0. Y quedan 4 ecuaciones en total:

\( x_0^2+y_0^2=1 \)
\( (x_f-4)^2+y_f^2=4 \)
\( 1-\dfrac{x_f-4}{y_f}a=0 \)
\( 1-\dfrac{x_0}{y_0}a=0 \)

Resolviendo para las 4 incógnitas \( x_0,x_f,y_0,y_f \) obtenemos los puntos extremos de la curva:

\( x_0=\pm{}(1+a^2)^{\frac{-1}{2}} \)
\( x_f=4\pm{}2(1+a^2)^{\frac{-1}{2}} \)
\( y_0=\pm{}a(1+a^2)^{\frac{-1}{2}} \)
\( y_f=\pm{}4a(1+a^2)^{\frac{-1}{2}} \)

Estos son los puntos por los que debe pasar la recta. Y como una recta queda determinada por dos puntos, la determinamos:

\( y=ax+b \)

\( y_f=ax_f+b \)
\( y_0=ax_0+b \)

Sustituyendo los valores de \( y_f,b \), al ser funciones de a, tenemos una ecuación y una incógnita: Despejamos a.
Y el valor de a lo sustituimos en la segunda ecuación, obteniendo b.

Aunque en este caso particular se puede resolver más rápidamente, ya que todas las \( y \) son proporcionales a \( a \), es decir, \( y_f=k_fa,y_0=k_0a \):

\( k_fa=ax_f+b\Longrightarrow{}a(x_f-k_f)+b=0 \)
\( k_0a=ax_0+b\Longrightarrow{}a(k_0-x_0)+b=0 \)

Un sistema de ecuaciones homogéneo, de solución única. ¿Cuál será la solución? El 0. \( a=0,b=0 \)

Y ya tenemos nuestra recta: y=0. Y los puntos de partida y llegada son:

\( x_0=\pm{}(1+0^2)^{\dfrac{-1}{2}}=\pm{}1 \)
\( x_f=4\pm{}2(1+0^2)^{\dfrac{-1}{2}}=4\pm{}2 \)
\( y_0=\pm{}0(1+0^2)^{\dfrac{-1}{2}}=0 \)
\( y_f=\pm{}4*0(1+0^2)^{\dfrac{-1}{2}}=0 \)

Es decir, hay dos líneas rectas \( y=0 \) que hacen de la integral un máximo o un mínimo:

\( (1,0)\Longrightarrow{}(2,0) \)
\( (-1,0)\Longrightarrow{}(6,0) \)

Ilustración

[cerrar]

Justo como debía ser.

Problema: ¿Cuál de las dos es máxima, y cuál es mínima? Si metemos las dos curvas en la integral que pretendíamos minimizar:

\( M_1=\displaystyle\int_{-1}^{6} \sqrt[ ]{1+0^2}dx=7 \)
\( M_2=\displaystyle\int_{1}^{2} \sqrt[ ]{1+0^2}dx=1 \)

Más claro que el agua ;) ¡Y se acabó!

Sobre integrales equivalentes en la minimización

Así como en mi primer planteamiento los mínimos de la función \( d_1=\sqrt{(x_1-x_2)^2+(y_1-y_2)^2} \) coinciden con los de la función \( d_2=(x_1-x_2)^2+(y_1-y_2)^2 \), ¿coincidirán también la curva mínima de \( M=\displaystyle\int_{x_0}^{x_f} \sqrt[ ]{1+y'^2}dx \) con la de \( M=\displaystyle\int_{x_0}^{x_f} (1+y'^2)dx \)?

Mejor aún: ¿Bajo qué funciones (no sólo \( \sqrt{V} \)) la curva solución es la misma que si omitiéramos dicha función?

Tomemos \( f=f(V) \), siendo \( V=V(x,y,y') \), y minimicemos:

\( \displaystyle\int_{x_0}^{x_f}f(V)dx \)

Resolviendo únicamente la condición del integrando, tendríamos:

\( f'\dfrac{\partial V}{\partial y}-\dfrac{d}{dx}(f'\dfrac{\partial V}{\partial y'})=0 \)

Reescrito en los términos que solemos utilizar, quedaría:

\( f'Y-\dfrac{d}{dx}(f'Y')=0 \)

Debe tener la misma solución que la ecuación diferencial \( Y-\dfrac{d}{dx}(Y')=0 \).
Supongamos que la ecuación diferencial se puede reducir a esa para cierta f, y por tanto tienen la misma solución. Para que puedan reducirse una a la otra, debe cumplirse:

\( \dfrac{d}{dx}(f'Y')=f'\dfrac{d}{dx}(Y') \)

o lo que es lo mismo,

\( \dfrac{d}{dx}f'=0 \)

Como \( f(V)=f(V(x,y(x),y'(x))) \) en general, no es sencillo encontrar una función que cumpla esta condición para todo x del dominio de integración.


TERCER EJEMPLO DE CÁLCULO VARIACIONAL. EL PROBLEMA ISOPERIMÉTRICO

Hallar la curva plana, cerrada con longitud fija para que su área encerrada sea máxima.

Planteamiento del problema

Sea \( (x(s),y(s)) \) la curva en paramétricas, con \( s \) la longitud de arco.

\( \displaystyle\int\sqrt[ ]{x'(s)^2+y'(s)^2}ds=s\Longrightarrow{x'(s)^2+y'(s)^2=1} \)
(circunferencia de radio unidad en x' e y')

Por otro lado el área será \( A=A(x,y)=\frac{1}{2}\displaystyle\int_{0}^{L}(xy'-x'y)ds \)  (1)

Llamamos \( F(x,x',y,y') \) al integrando de (1).

Pero con la restricción de perímetro fijo.

\( \displaystyle\int_{0}^{L}\sqrt[ ]{x'(s)^2+y'(s)^2}  ds=L \) (2)

Llamamos \( G(x',y') \) al integrando de (2)

Observemos que la integral a minimizar, A, depende de dos funciones en variable s, \( x(s),y(s) \). En lugar de minimizar una función de dos variables, estamos minimizando una integral de dos funciones. Observemos además otra peculiaridad: No buscamos un máximo absoluto, sino el par de funciones que den un resultado máximo al sustituirse en la integral... siempre que al sustituirse en G el resultado dé L.

Como las funciones \( x(s),y(s) \) son independientes entre sí, la minimización se lleva a cabo por separado, es decir, que en la condición del integrando se deberá cumplir:

\( X-\dfrac{d}{ds}X'=0 \)
\( Z-\dfrac{d}{ds}Z'=0 \)

para minimizar, en general, una integral de varias funciones independientes entre sí.

Multiplicadores de Lagrange: Estrategia general

Supongamos que tenemos que minimizar \( \displaystyle\int_{x_0}^{x_f}V(x,y,y',...)dx \) , sujeto a la condición de que la curva debe cumplir: \( \displaystyle\int_{x_0}^{x_f}G(x,y,y',...)dx=L \)

Se multiplica la segunda integral por la constante \( \lambda \) y se suma a la primera, así:

\( \displaystyle\int_{x_0}^{x_f}(V(x,y,y',...)+\lambda G(x,y,y',...))dx \)

Esta es la integral que hay que minimizar con los métodos explicados. Una vez resuelto todo, tan sólo faltará determinar la constante \( \lambda \), que se determinará insertando la función hallada \( y(x,\lambda) \) en la condición:

\( \displaystyle\int_{x_0}^{x_f}G(x,y,y',...)dx=L \)

Denominando D a la integral indefinida, quedaría:

\( D(x_f,\lambda)-D(x_0,\lambda)=L \)

Y de esta ecuación se despejaría el valor de \( \lambda \).

La razón que le da Echegaray es la siguiente:

Si tenemos una curva y(x) que al introducirla en la integral-restricción da como resultado L, podemos inventarnos muchas funciones infinitamente próximas a esta óptima que al introducirlas den también L. De esta forma, no sólo tenemos que hacer que la primera variación de la integral-objetivo sea 0, sino también que la integral-restricción tenga una primera variación igual a 0.

Resolución del problema

Ahora aplicamos el cálculo de variaciones a la integral (1), pero aplicando los multiplicadores de Lagrange (para cada variable x(s) e y(s)).

Para \( x(s) \)
\( F_x-\lambda G_x -\frac{d}{ds}(F_{x'} -\lambda G_{x'})=0 \)

Para \( y(s) \)
\( F_y-\lambda G_y -\frac{d}{ds}(F_{y'} -\lambda G_{y'})=0 \)

Obteniendo:

\( y'-\frac{d}{ds}(-y-\lambda\frac{x'}{\sqrt{x'^2+y'^2}} )=0 \) ,\( \Rightarrow  \) \( {2y+ \lambda x'=2a} \) (3)

\( -x'-\frac{d}{ds}(x-\lambda\frac{y'}{\sqrt{x'^2+y'^2}} )=0 \) ,\( \Rightarrow  \)  \(  {-2x+ \lambda y'=-2b} \)  (4) , ya que \( x'(s)^2+y'(s)^2=1 \)

Derivando en (4),  despejando \( x'= \frac{\lambda}{2}y'' \) y  sustituyendo en (3)

\( 2y-2a +\frac{\lambda^2}{2}y''=0 \) si llamamos \( u=y-a \:\;,\:\; u''=y'' \)

\( u=A\cos(\frac{2}{\lambda}s) +B\sin(\frac{2}{\lambda}s) \),

Si llamamos \( A^2+B^2=R^2 \) y \( A=R\sin(s_o) \, \,\, B=R\cos(s_o) \)

\( y= a + R\sin(\dfrac{2}{\lambda}s+s_o) \)


Sustituyendo \( y' \) en (4)

\( -2x +2R\cos((2/ \lambda) s+s_o)=-2b \)

y así:

\( x=b +R\cos(\frac{2}{\lambda}s+s_o) \)

\( y= a + R\sin(\frac{2}{\lambda}s+s_o) \)

Que es una circunferencia de centro \( (b,a) \) y radio R

por ser curva cerrada: \( y(0)=y(L)  \) y \( x(0)=x(L)  \)

Implica que es periódica de periodo L, \( \Rightarrow{}\frac{2}{\lambda}L=2\pi \)

Para conocer R utilizo \( \displaystyle\int_{0}^{L}\sqrt[ ]{x'(s)^2+y'(s)^2}  ds=L \), para  \( s_o \), a y b, sólo hay que aplicar las condiciones de contorno.


\( \displaystyle\int_{0}^{L}\sqrt[ ]{x'(s)^2+y'(s)^2}  ds=L \) , \( \displaystyle\int_{0}^{L}R\frac{2\pi}{L}  ds=L \)  Obteniendo  \( R=\displaystyle\frac{L}{2 \pi}  \)


Truco adicional para resolver la ecuación diferencial

\( y'-\frac{d}{ds}(-y-\lambda\frac{x'}{\sqrt{x'^2+y'^2}} )=0\Rightarrow{}-C+y=\displaystyle\frac{\lambda}{2}\cdot{}\dfrac{x'}{\sqrt{x'^2+y'^2}} \)
\( -x'-\frac{d}{ds}(x-\lambda\frac{y'}{\sqrt{x'^2+y'^2}} )=0\Rightarrow{}-D+x=\displaystyle\frac{\lambda}{2}\cdot{}\dfrac{y'}{\sqrt{x'^2+y'^2}} \)

Y ahora elevamos al cuadrado, y sumando las dos ecuaciones:
\( (y-C)^2+(x-D)^2=\dfrac{\lambda ^2}{2^2} \)

Este truco vale para cualquier otra ocasión en la que nos suceda algo parecido.

Utilizando:

\( (y-C)^2+(x-D)^2=\dfrac{\lambda ^2}{2^2} \)

y el hecho de que es curva cerrada y perdiódica de periodo L,

\( \dfrac{2}{\lambda}L=2\pi \)  Y obtenemos \( L=2 \pi R \)


CUARTO EJEMPLO DE CÁLCULO DE VARIACIONES.CURVA QUE DETERMINA LA DISTANCIA MÍNIMA ENTRE HELICES

Hallar la curva de longitud más corta que una dos hélices. A su vez, esta curva deberá estar contenida en el cilindro \( x^2+y^2=1 \). Las ecuaciones de las hélices son las siguientes:

\( z=\arcsen(x), x^2+y^2=1 \)
\( z=\arcsen(x)+p, x^2+y^2=1 \)

Estas curvas son proyectables en el plano xy sin ambigüedad hasta que dan la vuelta completa, y esta es la razón por la que la distancia entre dos puntos cualesquiera pertenecientes a las dos hélices puede expresarse así:

\( \displaystyle\int_{x_0}^{x_f}\sqrt{1+y'^2+z'^2}dx \)

Donde \( x_0 \) cumple \( z_0=\arcsen(x_0), x_0^2+y_0^2=1 \), y \( x_f \) cumple \( z_f=\arcsen(x_f)+p, x_f^2+y_f^2=1 \).

Al ser los límites variables, la variación de la integral incorporará, como se dedujo en el segundo ejemplo, el término \( V\delta x]^f_0 \), siendo V el integrando. Asimismo, la variación \( \delta y \) ya no será independiente de la variación \( \delta x \) ni de la variación \( \delta z \) en el punto inicial y final, ya que los puntos inicial y final se moverán por la hélice necesariamente, y con mover una coordenada, movemos necesariamente el resto de coordenadas. Al final del ejercicio, cuando hayamos resuelto la condición de la ecuación diferencial, y debamos resolver la condición de límites, deberemos tener en cuenta esto.

La condición de límites será, por tanto:

\( V\delta x + Y'(\delta y-y'\delta x) + Z'(\delta z - z'\delta x)]^f_0=0 \)

Sin embargo, hay una novedad en la ecuación diferencial que antes no había: en el ejemplo 3, la \( x(s) \) y la \( y(s) \) podían ser cualesquiera en el plano en todo el dominio de integración, con tal de que minimizaran la integral. En este caso, no puede ser cualquiera: Deben estar contenidos en el cilindro, es decir, hay una relación en todo momento entre x,y,z. Esta relación es \( x^2+y^2=1 \), o dicho de otra forma, \( F(x,y,z)=0\Rightarrow{}x^2+y^2-1=0 \)

En estos casos, se cambia la condición de ecuación diferencial típica (\( Y-\dfrac{dY'}{dx}=0, Z-\dfrac{dZ'}{dx}=0 \)) por esta otra:

\( (Y-\dfrac{dY'}{dx})(\dfrac{dF}{dz})-(Z-\dfrac{dZ'}{dx})(\dfrac{dF}{dy})=0 \)

Razón de ser de este cambio
En la integral, cuando teníamos una sola función que determinar (ejemplo 1), quedaba:
\( \delta M= ...]^f_0 + \displaystyle\int_{x_0}^{x_f} (Y-\dfrac{dY'}{dx})\delta y dx = 0 \)
Y como la integral, como todo lo demás, debía anularse, o se anulaba \( \delta y \), cosa que no es verdad porque estamos haciendo una variación en el dominio de integración, y precisamente eso no varía; o se anulaba el coeficiente, que no era función de \( \delta y \).

En la integral, cuando teníamos dos funciones que determinar (ejemplo 3), quedaba:
\( \delta M= ...]^f_0 + \displaystyle\int_{x_0}^{x_f} ((Y-\dfrac{dY'}{dx})\delta y + (Z-\dfrac{dZ'}{dx})\delta z) dx = 0 \)
Y por los mismos motivos de antes, tanto \( \delta y \)  como \( \delta z \) no son 0 en el dominio, porque precisamente pretendemos hacer una variación en la curva original por el dominio de integración. Entonces, al no ser los coeficientes funciones de los deltas, y ser los deltas independientes entre sí (la curva en el plano yz podía variar como le viniera en gana), se anulaba cada coeficiente por separado, y obteníamos un sistema de dos ecuaciones con dos incógnitas.

En este caso, la integral queda así:
\( \delta M= ...]^f_0 + \displaystyle\int_{x_0}^{x_f} ((Y-\dfrac{dY'}{dx})\delta y + (Z-\dfrac{dZ'}{dx})\delta z) dx = 0 \)
Pero ahora SÍ existe una relación entre las variaciones que hacemos en \( y \) y en \( z \), ya que las curvas-variación sobre la que buscamos deben pertenecer al cilindro según el enunciado.
Supongamos en primer lugar que las variaciones las hacemos únicamente en \( y \) y en \( z \), de tal forma que para todo el dominio de integración, para toda la curva, \( \delta x=0 \). Entonces, si la relación que hay entre x,y,z es \( F(x,y,z)=0 \),

\( \dfrac{\partial F}{\partial x}\delta x +\dfrac{\partial F}{\partial y}\delta y +\dfrac{\partial F}{\partial z}\delta z =\dfrac{\partial F}{\partial y}\delta y +\dfrac{\partial F}{\partial z}\delta z=0 \)

Despejando,

\( \delta z=\dfrac{-\frac{\partial F}{\partial y}}{\frac{\partial F}{\partial z}}\delta y \)

Sustituyendo en la integral original,

\( \displaystyle\int_{x_0}^{x_f} ((Y-\dfrac{dY'}{dx})\delta y + (Z-\dfrac{dZ'}{dx})\delta z) dx = \displaystyle\int_{x_0}^{x_f} ((Y-\dfrac{dY'}{dx})\delta y + (Z-\dfrac{dZ'}{dx})(\dfrac{-\frac{\partial F}{\partial y}}{\frac{\partial F}{\partial z}}\delta y)) dx = 0 \)

Y reorganizando,

\( \displaystyle\int_{x_0}^{x_f}((Y-\dfrac{dY'}{dx})-(Z-\dfrac{dZ'}{dx})(\dfrac{\frac{\partial F}{\partial y}}{\frac{\partial F}{\partial z}}))\delta y dx \)

E igualamos a 0. Al igualar a 0, podemos multiplicar la expresión por el denominador para que quede más bonita:

\( (Y-\dfrac{dY'}{dx})(\dfrac{\partial F}{\partial z})-(Z-\dfrac{dZ'}{dx})(\dfrac{\partial F}{\partial y})=0 \)

Y de aquí viene la expresión.
Ojo, he considerado que la variación en x de la curva en la integral, \( \delta x \), es siempre 0. ¿Y si no fuera así?

Queda igual :)

En nuestro caso, también variamos \( \delta x \) en el dominio, ya que la ecuación a la que deben restringirse todas nuestras curvas que varían de la solución deben pertenecer al cilindro \( x^2+y^2=1 \) según el enunciado. La variación sería: \( x\delta x+y\delta y=0 \), y se establece una dependencia clara entre la variación en x y la variación en y.

¿Por qué, sin embargo, no debe incluirse en la integral este hecho? Porque ya está incluido, pero en la parte que concierne a lo que ya está integrado.

Y con ello me remito al razonamiento del ejemplo 2, en el que explicaba gráficamente cómo, al variar x en las curvas del dominio de integración, se añadía un término \( V\delta x \), y todas las \( \delta y \) se transformaban en \( \delta y-y'\delta x \), y por qué la ecuación diferencial dentro de la integral permanecía constante (como esto es lo menos evidente a mi juicio, recalco el por qué: Porque al variar \( \delta x \), añadimos puntos por la derecha de la integral, y quitamos puntos por la izquierda de la integral. El área de dentro permanece invariable (invariable respecto a los cambios en x. Respecto a y, naturalmente, varía, pero como siempre hizo, como si los límites de integración estuvieran fijos), lo que varía, repito, son las condiciones de los extremos de la integral, y es ahí donde se efectúan los más grandes cambios: Añadir \( V\delta x]^f_0 \) y cambiar todas las \( \delta y \) por \( \delta y-y'\delta x \). La razón de estos cambios también se explican en el ejemplo 2.

Echegaray demuestra en su libro por qué el variar \( \delta x \) no afecta a la integral, y lo hace de una forma parecida a como se demuestra qué sí cambia al existir una relación entre las variaciones en \( \delta y \), y \( \delta z \). Pero aunque ambas vías de demostración me gustan, la geométrica aporta una visión mucho más profunda de lo que está ocurriendo. Así que esa es la que yo doy :)
[cerrar]

Resolución del problema

Condición del integrando

\( (Y-\dfrac{dY'}{dx})(\dfrac{\partial F}{\partial z})-(Z-\dfrac{dZ'}{dx})(\dfrac{\partial F}{\partial y})=0 \)

Donde \( Y=0,Y'=\dfrac{y'}{\sqrt{1+y'^2+z'^2}},Z=0,Z'=\dfrac{z'}{\sqrt{1+y'^2+z'^2}},\dfrac{\partial F}{\partial y}=2y,\dfrac{\partial F}{\partial z}=0 \)

Sustituyendo,

\( \dfrac{d}{dx}(\dfrac{z'}{\sqrt{1+y'^2+z'^2}})2y=0 \)

Como \( y=0 \) no es la solución, la otra alternativa es que:

\( \dfrac{d}{dx}(\dfrac{z'}{\sqrt{1+y'^2+z'^2}})=0\Longrightarrow{}\dfrac{z'}{\sqrt{1+y'^2+z'^2}}=C \)

Tenemos una sola ecuación diferencial, y 2 incógnitas. Estas incógnitas, \( z(x),y(x) \), no son independientes entre sí, sino que están relacionadas por medio de x en la siguiente ecuación \( x^2+y^2=1 \), que ha de cumplirse, según el enunciado, en toda la curva. Geométricamente, necesitamos 2 relaciones entre x,y,z, para pasar de generar un espacio, a generar una curva. Con sólo la ecuación diferencial, tendríamos una superficie de soluciones. Y de hecho, como ya dije en el primer post, nos sale una sola ecuación diferencial en vez de un sistema con dos ecuaciones porque, de hecho, están relacionados entre sí. Así que somos consecuentes, y hallamos la relación entre x e y':

\( x^2+y^2=1 \Rightarrow{} y=\sqrt{1-x^2}\Longrightarrow{}y'=\dfrac{-x}{\sqrt{1-x^2}} \)

Elevando al cuadrado la ecuación diferencial, y sustituyendo,

\( z'^2=C^2(1+\dfrac{x^2}{1-x^2}+z'^2) \)

\( z=A\displaystyle\int \sqrt{1+\dfrac{x^2}{1-x^2}}dx+B \)

\( z=A\arcsin(x)+B \)

Resolución de esa integral
Haciendo la división de polinomios, queda:
\( 1+\dfrac{x^2}{1-x^2}=1-1+\dfrac{1}{1-x^2} \)
Así que la integral queda:
\( \displaystyle\int \dfrac{1}{\sqrt{1-x^2}}=\arcsen(x) \)
[cerrar]

En cuanto a y, \( y(x)=\sqrt{1-x^2} \), debido a que debe estar dentro del círculo.

La condición de límites es:

\( V\delta x + Y'(\delta y-y'\delta x) + Z'(\delta z - z'\delta x)]^f_0=0 \)

Sabemos que las variaciones en x,y,z no son independientes, ya que deben estar contenidas dentro de las hélices iniciales y finales. Hallamos dicha relación:

\( \delta z=\dfrac{\delta x}{\sqrt{1-x^2}} \), tanto para \( (\delta x_0,\delta y_0, \delta z_0),(x_0,y_0,z_0) \) como para \( (\delta x_f,\delta y_f, \delta z_f),(x_f,y_f,z_f) \)

\( \delta y=\dfrac{-x}{y}\delta x \), ídem.

Sustituyendo,

\( V\delta x + Y'(\dfrac{-x}{y}\delta x-y'\delta x) + Z'(\dfrac{1}{\sqrt{1-x^2}}\delta x - z'\delta x)]^f_0 \)

Reordenando, y sustituyendo los valores de V,Y',Z', de las ecuaciones de la curva hallada z(x,A,B), y(x), entonces obtendríamos algo tal que así:

\( f_f(x_f,...)\delta x_f+f_0(x_0,...)_0\delta x_0 \)

Donde tanto \( \delta x_f \) como \( \delta x_0 \) son desplazamientos que se efectúan en los límites de la integral, en hélices distintas, y de forma independiente. Y al ser independientes, igualamos sus coeficientes a 0.

Tras mucho sustituir y maniobrar, y algunos truquitos, se llega a la conclusión de que \( A=-1 \), y eso en las dos ecuaciones.

Algunos truquitos
Al sustituir el valor de las variaciones \( \delta y, \delta z \) en función de \( \delta x \), tenemos para evaluar una expresión multiplicada por \( \delta x \), así:

\( E\delta x]^f_0=E_f\delta x_f-E_0\delta x_0=0 \)

Donde ya sabemos que hay que igualar cada coeficiente a 0. Ahora vamos, desde el principio, a multiplicar E por otra expresión, N. Quedará:

\( NE\delta x]^f_0=N_fE_f\delta x_f-N_0E_0\delta x_0=0 \)

Y al igualar a 0,

\( N_fE_f=0\Rightarrow{}E_f=0 \), y lo mismo con \( E_0=0 \)

De aquí se deduce, que cuando tenemos ya sustituidos los diferenciales que eran dependientes entre sí (o, por linealidad, desde el principio podemos usar este truco), entonces podemos multiplicar o dividir por la expresión que queramos. Esto está bien para reorganizar y simplificar el corchete antes de evaluarlo en f y en 0, y de esta forma eliminar raíces, denominadores, etc que nos hacen mucho mal a nosotros, los humanos :P

[cerrar]

La curva óptima quedaría:

\( z=-\arcsin(x)+B,x^2+y^2=1 \)

Ya hemos usado todas las condiciones y ecuaciones. ¿Falta algo? Porque B no lo hemos determinado.

No, esta es la curva óptima. B queda indeterminado porque a lo largo del cilindro, en el espacio entre las dos hélices, podremos dibujar infinitas curvas con la misma distancia mínima. Esto se ve mejor si resolviéramos el problema en cilíndricas.

Acabamos de resolver el problema en cartesianas.


CUARTO EJEMPLO DE CÁLCULO DE VARIACIONES REPRISE. CILÍNDRICAS

Vamos a hacer lo mismo, pero en coordenadas cilíndricas, pues es más sencillo el problema, y calcularemos el valor exacto de la distancia mínima entre hélices.

La distancia es: \( \displaystyle\int\sqrt[ ]{r(t)^2+r'(t)^2+z'(t)^2}  dt=S \) , con 't' el ángulo del vector r respecto al eje x.

Restringida al cilindro de radio unidad , entonces \( r=1 \) constante. \( \Rightarrow{}\displaystyle\int\sqrt[ ]{1+z'(t)^2}  dt=S \) (1)

Las ecuaciones de las hélices son:

h1: \( \displaystyle z=mt \)  y \( r=1 \)
h2: \( \displaystyle z=mt+p \)  y \( r=1 \), con p la distancia vertical (en z) entre hélices.

Debemos hacer mínima la integral (1) en la que los límites no son fijos y varían según las ecuaciones de las hélices.

Condición del integrando

\( V_z-\frac{d}{dt}(V_{z'} )=0 \) con V el integrando de (1) y \( V_z=\frac{{\partial V}}{{\partial z}} \) , \( V_{z'}=\frac{{\partial V}}{{\partial {z'}}} \)

como: \( V_z=0 \) => \( \displaystyle V_{z'}=cte=\frac{z'}{\sqrt[ ]{1+z'(t)^2}}=a \)

\( \displaystyle z'=\frac{a}{\sqrt[ ]{1-a^2}}=k=cte \)

Por ello la curva de distancia mínima será:

\( \displaystyle Z_{dmin}=kt +b \)

con k y b a determinar. Es lógico, como ya veremos, que la solución sea otra hélice con pendiente k.

K lo vamos a calcular a través de la condición de límites de la integral \( t_1 \) y \( t_2 \) pertenecientes a las hélices h1 y h2.

Condición de límites

\( V\delta t + V_{z'}(\delta z-z'\delta t) ]^{t1}_{to}=0 \) (2)

Teniendo en cuenta que \( \delta z \)  y  \( \delta t \) no son independientes en cada hélice h1 y h2.

h1: \( \displaystyle z=mt\Longrightarrow{}\delta Z_1=m \delta t_1 \)
h2: \( \displaystyle z=mt+p\Longrightarrow{}\delta Z_2=m \delta t_2 \) (3)

sustituyendo la relación (3) en (2) ponemos solo como independientes las variaciones virtuales de los ángulos t1 y t2 de cada curva.

y teniendo en cuenta que Z es ya la curva obtenida de distancia mínima

\( \displaystyle Z=kt +b \) , \( \displaystyle Z'=k \)

Operando en (2) y multiplicando por la raíz, obtenemos que

\( 1+mk=0\Longrightarrow{}k=\dfrac{-1}{m} \)

Lo que era de esperar.

\(  Z= \frac{-1}{m}t +b \), que son familias de hélices ortogonales a h1 y h2 , paralelas entre si por la traslación b

arbitraria que queda indeterminada. Lo cual no impide calcular la distancia mínima entre h1 y h2, restringida a \( r=1 \).

Para calcular la distancia mínima, como no depende del punto elegido de la hélice h1, puedo elegir el pto. \( (t_1,z_1)=(0,0) \)
En la hélice  \( Z= \dfrac{-1}{m}t +b \) implica \( b=0 \)

Vemos el punto de la hélice h2, con la intersección de:

\( Z= \dfrac{-1}{m}t  \)

\( Z= mt+p  \)

obtenemos el punto  \( t_2=-\dfrac{p\,m}{m^2+1} \)  y la distancia mínima será el arco de curva entre \( t_1 \,\, y \,\, t_2  \)
\( \displaystyle\int_{t_2}^{t_1}\sqrt[ ]{1+z'(t)^2}  dt=d_{min} \)

\( \displaystyle\int_{t_2}^{t_1}\sqrt[ ]{1+\dfrac{1}{m^2}}  dt=d_{min}=\dfrac{p\,m}{m^2+1}\sqrt[ ]{1+\dfrac{1}{m^2}} \)

Teniendo en cuenta que: \( z'_{h1}=m=tg \theta \) y \( m^2+1=sec^2\theta \) con \( \theta \) el ángulo de  la hélice h1 ó h2 respecto al plano horizontal (x-y) ,es decir el ángulo en coordenadas polares de las rectas h1 y h2 respecto al eje angular t.(el eje es el arco de la circunferencia de la base, \( rt=t \)) . ( que no es lo mismo que el ángulo del radio-vector de posición respecto a la base x-y del cilindro)

operando obtenemos \( d_{min}=p \, \cos \theta \)

Dibujo aclaratorio:

Spoiler
[cerrar]
Como la pendiente en la resolución en cartesianas es \( m=1 \) , pues \( Zh1 = arcsin(x) \), la distancia resulta: \( d_{min}=p \, cos 45º =p\frac{\sqrt[ ]{2}}{2} \)


LA PERSPECTIVA DE LAGRANGE

Como expresamos al principio, vamos a repetir la teoría, de una manera rápida, pero desde una perspectiva distinta y, tal vez, más poderosa...


La idea es la siguiente:

Tenemos esta integral entre dos puntos fijos \( (x_0,y(x_0)) \) y \( (x_f,y(x_f)) \), y queremos minimizarla:

\( M(y)=\displaystyle\int_{x_0}^{x_f}V(x,y,y')dx \)

donde el resultado depende como hemos visto, esencialmente de la \( y(x) \) que escojamos. Pues bien, voy a evaluar esta función M en la función óptima \( u(x) \) que minimiza la integral, + otra función que hace que la función total \( u(x)+tv(x) \) "pudiera" ser la óptima (pero que no lo es), multiplicada por un número, es decir, voy a evaluar así: \( y(x)=u(x)+tv(x) \):

\( M(u+tv)=\displaystyle\int_{x_0}^{x_f}V(x,u+tv,(u+tv)')dx=\displaystyle\int_{x_0}^{x_f}V(x,u+tv,u'+tv')dx \)

Cuando decimos que la función total podría ser la óptima, nos referimos a que, al igual que lo consigue \( y=u \) (la curva óptima), \( y=u+tv \) debe partir de \( (x_0,y(x_0)) \) y llegar a \( (x_f,y(x_f)) \). Y como lo consigue \( y=u \), para que lo consiga \( y=u+tv \) lo único que tenemos que hacer es que \( v(x_0)=0 \) y que \( v(x_f)=0 \). Entonces, v puede ser cualquier función, pero cumpliendo esos dos requisitos.

Lagranchilustración
[cerrar]

En la imagen se puede ver la función del integrando, con varios valores para t. Con valores altos de t, en la función \( u(x)+tv(x) \) el término predominante es \( tv(x) \), y al sumarlo queda esa función tan extraña y grisácea. Cuando el valor de t es muy pequeñito,  en la función \( u(x)+tv(x) \) el término predominante es \( u(x) \), y al sumar los dos términos queda esa función que no es la óptima, sino una ligera variación.

Entonces, visto lo visto, ¿cómo podemos calcular cómo varía el resultado de la integral dependiendo de la función? Pues derivando con respecto a t. ¿Y eso para qué nos sirve? Para fijarnos en el único t que nos interesa, que es t=0, ya que ahí estaremos calculando cómo varía el resultado de la integral en el óptimo. ¿Y cómo variará? cero patatero, es el óptimo. Y esa condición es la que vamos a imponer:

\( h(t)=M(u+tv)=\displaystyle\int_{x_0}^{x_f}V(x,u+tv,u'+tv')dx \)

\( \dfrac{dh}{dt}=\dfrac{dM(u+tv)}{dt}=\displaystyle\int_{x_0}^{x_f}\dfrac{dV(x,u+tv,u'+tv')}{dt}dx \)

\( \dfrac{dV(x,u+tv,u'+tv')}{dt}=\dfrac{\partial V}{\partial x}\dfrac{\partial x}{\partial t}+\dfrac{\partial V}{\partial (u+tv)}\dfrac{\partial (u+tv)}{\partial t}+\dfrac{\partial V}{\partial (u'+tv')}\dfrac{\partial (u'+tv')}{\partial t} \)

x es la variable independiente, ¡no varía con t! así que \( \dfrac{\partial x}{\partial t}=0 \). A su vez, \( \dfrac{\partial (u+tv)}{\partial t}=v \), y a su vez, \( \dfrac{\partial (u'+tv')}{\partial t}=v'  \)

Juntándolo todo,

\( h'(t)=\dfrac{dh}{dt}=\displaystyle\int_{x_0}^{x_f}(\dfrac{\partial V}{\partial (u+tv)}v+\dfrac{\partial V}{\partial (u'+tv')}v')dx \)

Así es como varía en general. Pero en el óptimo...

\( h'(0)=\displaystyle\int_{x_0}^{x_f}(\dfrac{\partial V}{\partial u}v+\dfrac{\partial V}{\partial u'}v')dx=0 \)

\( h'(0)=\displaystyle\int_{x_0}^{x_f}(Uv+U'v')dx=0 \)

donde \( U=\dfrac{\partial V}{\partial u}, U'=\dfrac{\partial V}{\partial u'} \)

En este desarrollo diferencié entre una \( y(x) \) cualquiera y la \( y_{opt}(x) \) con notación, es decir, a la \( y \) le llamé \( y \), y a la \( y \) óptima le llamé \( u \); cosa que no he hecho en todo el post, donde a la \( y \) óptima le llamé también \( y \). Abuso de notación, lo llaman. Así que para que me quede clavadito, ¡volveré a dejar la \( u \) como \( y \) y abusaré de notación una vez más!

\( h'(0)=\displaystyle\int_{x_0}^{x_f}(Yv+Y'v')dx \)

A este mismo resultado hemos llegado antes. Y ahora tocaría integrar por partes. Y aquí introduciríamos la condición de límites. Pues no exactamente:

\( \displaystyle\int_{x_0}^{x_f}Y'v'dx=Y'v]^{x_f}_{x_0}-\displaystyle\int_{x_0}^{x_f}\dfrac{dY'}{dx}vdx \)

¡Pero recordemos que \( v(x_f)=0 \) y que \( v(x_0)=0 \)!

Por tanto no hay condición de límites que valga, y el resultado es:

\( Y-\dfrac{dY'}{dx}=0 \)

Como era de esperar. Lo de la condición de límites es compatible con lo que expliqué desde el punto de vista de Echegaray/Euler, pues al tener los puntos fijos, la condición se cumple automáticamente.

     Autores: PiocKñec y robinlambada