jueves, 25 de mayo de 2023

SOLUCIONES DE ECUACIONES DIFERNECIALES

 SOLUCIOES DE ECUACIONES DIFERNCIALES


 Métodos de un paso.

Una de las técnicas más simples para aproximar soluciones de ecuaciones diferenciales es conocida como Método de Euler o método de las tangentes. Supongamos que queremos aproximar la solución del problema de valores iniciales y ’ = f(x, y) para el cual y(x0) = y0. Si h es un incremento positivo sobre el eje x, entonces, como se muestra en la figura, podemos encontrar un punto Q(x1, y1) = (x0 + h, y1) sobre la tangente en P (x0, yo) a la curva solución desconocida. De la ecuación de una recta que pasa por un punto dado, tenemos: 0 0 0 1 0 ( ) y x h x y y      ; 0 1 0 y h y y    o bien 1 0 0 y  y  hy  en donde ( , ) 0 0 0 y   f x y Si denotamos x0 + h por x1, entonces el punto Q(x1, y1) ubicado sobre la tangente es una aproximación del punto R(x1, y(x1)) que se encuentra sobre la curva solución. Esto es y1 ≈ y(x1).  

6.2 Método de pasos múltiples 

Se considera el problema de valores iniciales (P.V.I.) 8<: y0(x) = f(x; y(x)); x 2 [a; b]; y(a) = y0 dado, el que supondremos tiene solución única, y : [a; b] Dada una partición del intervalo [a; b]: a = x0 < x1 < < xN = b; los métodos que hemos visto hasta aquí sólo usan la información del valor yi de la solución calculada en xi para obtener yi+1. Por eso se denominan métodos de paso simple. Parece razonable pensar que también podrían utilizarse los valores yi. Para ello, si integramos y0(x) = f(x; y(x)) en el intervalo [xi; xi+1], se tiene: Z xi+1 xi y0(x) dx = Z xi+1 xi f(x; y(x)).

6.3 Sistemas de ecuaciones diferenciales ordinarias

 Un sistema de ecuaciones diferenciales es un conjunto de varias ecuaciones diferenciales con varias funciones incógnitas y un conjunto de condiciones de contorno. Una solución del mismo es un conjunto de funciones diferenciables que satisfacen todas y cada una de las ecuaciones del sistema. Según el tipo de ecuaciones diferenciales puede tenerse un sistema de ecuaciones diferenciales ordinarias o un sistema de ecuaciones en derivadas parciales. En un sistema de ecuaciones diferenciales ordinarias de cualquier orden, puede ser reducido a un sistema equivalente de primer orden, si se introducen nuevas variables y ecuaciones. Por esa razón en este artículo sólo se consideran sistemas de ecuaciones de primer orden. 

APLICASIONES:


https://youtu.be/hPPgDoOLhWg


INTERPOLACION Y AJUSTE DE FUNCIONES

INTERPOLACION Y AJUSTES DE FUNCIONES

 

5.1 Polinomio de interpolación de Newton

Es un método de interpolación polinómica. Aunque sólo existe un único polinomio que interpola una serie de puntos, existen diferentes formas de calcularlo. Este método es útil para situaciones que requieran un número bajo de puntos para interpolar, ya que a medida que crece el número de puntos, también lo hace el grado del polinomio.
Existen ciertas ventajas en el uso de este polinomio respecto al polinomio interpolador de Lagrange. Por ejemplo, si fuese necesario añadir algún nuevo punto o nodo a la función, tan sólo habría que calcular este último punto, dada la relación de recurrencia existente y demostrada anteriormente.
El primer paso para hallar la fórmula de la interpolación es definir la pendiente de orden  de manera recursiva:
  • : término i-ésimo de la secuencia

En general:
,
donde  representa la distancia entre dos elementos (por ejemplo, se puede tener el elemento en  y  pero desconocer el valor de la secuencia en ).

Puede apreciarse cómo en la definición general se usa la pendiente del paso anterior, , a la cual se le resta la pendiente previa de mismo orden, es decir, el subíndice de los términos se decrementa en , como si se desplazara, para obtener .

Nótese también que aunque el término inicial siempre es , este puede ser en realidad cualquier otro, por ejemplo, se puede definir  de manera análoga al caso mostrado arriba.



5.2 Polinomio de interpolación de Lagrange. 
En análisis numérico, el polinomio de Lagrange, llamado así en honor a Joseph-Louis de Lagrange, es una forma de presentar el polinomio que interpola un conjunto de puntos dado. Lagrange publicó este resultado en 1795, pero lo descubrió Edward Waring en 1779 y fue redescubierto más tarde por Leonhard Euler en 1783.1​ Dado que existe un único polinomio interpolador para un determinado conjunto de puntos, resulta algo engañoso llamar a este polinomio el polinomio interpolador de Lagrange. Un nombre más apropiado es interpolación polinómica en la forma de Lagrange.

Dado un conjunto de k + 1 puntos
donde todos los xj se asumen distintos, el polinomio interpolador en la forma de Lagrange es la combinación lineal
de bases polinómicas de Lagrange
La función que estamos buscando es una función polinómica L(x) de grado k con el problema de interpolación puede tener tan solo una solución, pues la diferencia entre dos tales soluciones, sería otro polinomio de grado k a lo sumo, con k+1 ceros.

Por lo tanto, L(x) es el único polinomio interpolador
Si se aumenta el número de puntos a interpolar (o nodos) con la intención de mejorar la aproximación a una función, también lo hace el grado del polinomio interpolador así obtenido, por norma general. De este modo, aumenta la dificultad en el cálculo, haciéndolo poco operativo manualmente a partir del grado 4, dado que no existen métodos directos de resolución de ecuaciones de grado 4, salvo que se puedan tratar como ecuaciones bicuadradas, situación extremadamente rara.
La tecnología actual permite manejar polinomios de grados superiores sin grandes problemas, a costa de un elevado consumo de tiempo de computación. Pero, a medida que crece el grado, mayores son las oscilaciones entre puntos consecutivos o nodos. Se podría decir que a partir del grado 6 las oscilaciones son tal que el método deja de ser válido, aunque no para todos los casos.
Sin embargo, pocos estudios requieren la interpolación de tan solo 6 puntos. Se suelen contar por decenas e incluso centenas. En estos casos, el grado de este polinomio sería tan alto que resultaría inoperable. Por lo tanto, en estos casos, se recurre a otra técnica de interpolación, como por ejemplo a la Interpolación polinómica de Hermite o a los splines cúbicos
Otra gran desventaja, respecto a otros métodos de interpolación, es la necesidad de recalcular todo el polinomio si se varía el número de nodos.



5.3 Interpolación segmentada.




 5.4 Regresión y correlación

El análisis de regresión es una técnica estadística para investigar la relación funcional entre dos o más variables, ajustando algún modelo matemático.
La regresión lineal es una técnica que permite cuantificar la relación que puede ser observada cuando se grafica un diagrama de puntos dispersos correspondientes a dos variables, cuya tendencia general es rectilínea ; mediante una ecuación “del mejor ajuste” de la forma:
Y= mX+b
Regresión lineal simple es un modelo óptimo para patrones de demanda con tendencia (creciente o decreciente), es decir, patrones que presenten una relación de linealidad entre la demanda y el tiempo.
 


 5.5 Mínimos cuadrados
Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados —variable independiente, variable dependiente— y una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos a procesar estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros problemas de optimización pueden expresarse también en forma de mínimos cuadrados, minimizando la energía o maximizando la entropía.



5.6 Problemas de aplicación.

topografía y hasta en diseño de las estructuras, no en todos los casos pero principalmente cuando hay mala toma de datos o haya datos faltantes.

En el subcampo matemático del análisis numérico, un spline es una curva diferenciable definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines porque da lugar a resultados similares requiriendo solamente el uso de polinomios de bajo grado, evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones, encontradas al interpolar mediante polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La simplicidad de la representación y la facilidad de cómputo de los splines los hacen populares para la representación de curvas en informática, particularmente en el terreno de los gráficos por ordenado. Tenemos los siguientes 3:

·         Interpolación Segmentaria Lineal

·         Interpolación Segmentaria Cuadrática

·         Interpolación Segmentaria Cúbica

 

Código Enigma

 /**  *  * @author ulice  */ public class Palindrome {     public static String palindrome(String palabra,int i){         if(i<0){       ...