miércoles, 27 de junio de 2012

4.1 Teoría preliminar.

4.1 Teoría preliminar. 

Ecuaciones   diferenciales   lineales   de   orden   superior   m     Problema   de   valores   iniciales
m     Existencia y unicidad m   Problema de valores en   la frontera


m     Ecuaciones   diferenciales   homogéneas   y   no   homogéneas   m     Operador   diferencial   lineal.
m Dependencia   lineal.
Wronskiano   m     Conjunto fundamental de soluciones
Principios   de   superposición   m     Solución   general   m     Función   complementaria   m     Solución particular

4.1.1 Sistemas de Ecuaciones diferenciales lineales.

4.1.1 Sistemas de Ecuaciones diferenciales lineales.


Los problemas de la vida real pueden representarse de mejor manera con la ayuda de múltiples variables. Por ejemplo, piensaen el conteo de la población representado con la ayuda de una sola variable. Pero, esta depende del conteo de la población de depredadores así como también de las condiciones climáticas y la disponibilidad de alimentos. Todas estas condiciones en sí mismas forman una ecuación diferente definida en una variable separada.
Por lo tanto, para estudiar las relaciones complejas, requerimos de varias ecuaciones diferentes para definir diferentes variables. Tal sistema es el sistema de ecuaciones diferenciales. Un sistema de ecuaciones diferenciales lineales se puede denotar como,
Aquí xi (t) es una variable en términos de tiempo y el valor de i = 1, 2, 3, …, n. También A es una matriz que contiene todos los términos constantes, como [ai,j].
Dado que los coeficientes de la matriz constante A no están definidos explícitamente en términos de tiempo, por lo tanto, un sistema de ecuaciones diferenciales lineales es llamadoa veces autónomo. La notación convencional general para el sistema de ecuaciones diferenciales lineales es,
dx/ dt = f(t, x, y)
dy/ dt = g(t, x, y)
El sistema anterior de ecuaciones diferenciales tendrá numerosas funciones para satisfacerla. Mediante la modificación de la variable tiempo obtendremos un conjunto de puntos que se encuentran en el plano de dos dimensiones x-y, los cuales se denominan trayectoria. La velocidad con respecto a esta trayectoria, en algún tiempo t es,
  = (dx/ dt, dy/ dt)
Un ejemplo de un sistema de ecuaciones diferenciales lineales es el siguiente,
dx1/ dt = −4×1 + 2×2
dx2/ dt = 0×1 + −2×2
Con el fin de determinar el conjunto completo de fórmulas para la variable dependiente de tiempo xi(t) para todos los valores de i, es necesario obtener primero los vectores propios y valores propios de la matriz constante A. En el caso que la matriz constante A posea un conjunto de valores propios repetidos para sus componentes, sería necesarioun vector propio generalizado.
Este es t, toma en cuenta que los vectores propios y valores propios de la matriz constante puede ser un subconjunto de los números reales o también un subconjunto de los números complejos.
La representación de la matriz del problema anterior es la siguiente, dx/ dt = A * x
En este caso, A es la matriz constante que puedeserrepresentada como,
A =
Y x(t)T es un vector de variables definidas en términos de tiempo, el cual es representado como,
x(t)T =
dx/ dt =
En caso de que el vector propio de la matriz constante A sea un subconjunto de los números reales para este ejemplo, podemos escribir,
A = S * D * S-1
Aquí D es la matriz diagonal de la matriz de vectores propios de la matriz constante A y S es la matriz que contiene los vectores propios en forma de columnas, en el mismo orden como los valores propios se escriben en la matriz diagonal D.
En consecuencia, la forma de la matriz del ejemplo anterior se puede escribir como,
dx/ dt = A * x
dx1/ dt
dx2/ dt = −4 2
0 −4 * x1
x2
Al igual que en una ecuación diferencial ordinaria, un sistema de ecuaciones diferenciales lineales también pueden formar un problema de valor inicial donde se dan varias condiciones iniciales.

viernes, 22 de junio de 2012

4.1.2 Sistemas de Ecuaciones diferenciales lineales homogeneos.

4.1.2 Sistemas de Ecuaciones diferenciales lineales homogeneos. 

 Sistemas de ecuaciones diferenciales lineales homogéneos
Sabemos que una ecuación diferencial lineal es de la forma,
Si esta misma ecuación se transforma en la forma,
Obtenemos una ecuación diferencial lineal homogénea. Esta se da cuando lafunción conocida no estápresente en la ecuación diferencial lineal, entonces se le llama una ecuación diferencial homogénea. Y si tenemos una gran cantidad de tales ecuaciones juntas, de manera tal que dependen unas de las otras, y definen colectivamente un problema común, entonces se les llama un sistema de ecuaciones diferenciales linealeshomogéneo.
Tales sistemas pueden ser resueltos de manera eficiente con la ayuda de las matrices, las cuales son denominadas matriz fundamental. Sean X1, X2 … X3 las soluciones de la matriz fundamental del sistema de entrada de ecuaciones diferenciales homogéneas, entonces puede representarse de manera condensada como,
En la ecuación anterior, las soluciones del sistema de ecuaciones diferenciales están definidas en algún intervalo, digamos I y la solución general del sistema de ecuaciones diferenciales es este
En la ecuación anterior, los términos que se mantienen dentro de los corchetes son los vectores fila, donde X1 = [xi1j], X2 = [xi2j] …Xn = [xinj]. Estas son las soluciones n fundamentales del sistema de entrada de ecuaciones diferenciales lineales homogéneas para el intervalo dado I.Entonces tenemos que la matriz fundamental para el sistema homogéneo de ecuaciones diferenciales lineales para el intervalo dado como I es,
Los pasos para resolver un sistema homogéneo de ecuaciones diferenciales lineales son los siguientes:
1. Construye la matriz de coeficientes para las ecuaciones del sistema dado.
2. Determina los valores propios de esta matriz de coeficientes del sistema dado de ecuaciones diferenciales lineales homogéneas.
3. Ahora, busca el vector propio inicial de este conjunto de valores propios y nómbralo como EV1.
4. Determina la primera ecuación de este vector en términos de constantes k1, k2.
5. Después de esto, determina el siguiente conjunto de valores propios, sus vectores propios correspondientes y su ecuación.
6. Anota la solución general para las ecuaciones en términos de constantes k1, k2.
7. Por último, deriva la solución general para el sistema de ecuaciones.
Aunque el procedimiento para solucionar el sistema de ecuaciones diferenciales lineales homogéneo es bastante fácil, se da un ejemplo ilustrativo que te ayudará a hacer los conceptos más claros.
dx/ dt = 2x + 3y
dy/ dt = 2x + y
Primero, escribamos la matriz constante para el sistema de ecuaciones diferenciales homogéneas dado. Esto es,
La matriz columna de los valores propios construida a partir de esta matriz de coeficientes es la siguiente,
Esto nos da 1 = −1 y 2 = 4. A partir de estos valores propios el vector propio asociado se construye como,
Colocando el valor de 1 = −1 en lugar, el valor exacto deEV1se obtiene como,
El determinante de este se obtiene como,
| EV1 | = 0.
La ecuación asociada de este vector propio es,
3k1 + 3k2 = 0
2k1 + 2k2 = 0
De manera similar, la otra ecuación para el segundo vector propio es,
-2k1 + 3k2 = 0
2k1 - 3k2 = 0
Cuando t = 0, c1 = 1 y c2 = 1.
X1 = e-t K1
Del mismo modo,
Esto nos da la solución general,

4.1.3 Solución general de sistemas de Ecuaciones diferenciales lineales y solucion particular de sistemas de Ecuaciones diferenciales lineales.

4.1.3 Solución general de sistemas de Ecuaciones diferenciales lineales y solucion particular de sistemas de Ecuaciones diferenciales lineales. 

 Solución general de los sistemas de ecuaciones diferenciales lineales y solución particular de los sistemas de ecuaciones diferenciales lineales

Para resolver un sistema de ecuaciones diferenciales lineales, es absolutamente esencial conocer los conceptos de valor propio y vector propio. Para una matriz M dada, es llamadolos valores propios, si la condición es verdadera,
Aquí x se llama vector propio de la matriz M.
Es decir, los vectores propios son aquellos vectores que luego de ser multiplicados por la matriz de entrada permanecen proporcionales a la matriz de entrada o resultan cero.
Sea A la matriz que contiene los valores propios, como [ 1, 2, 3 … n]. A continuación se indican los pasos para resolver un sistema de ecuaciones diferenciales.
1. Calcula las ecuaciones del sistema de ecuaciones diferenciales y construye la matriz que contiene los coeficientes de todas las ecuaciones en el orden en que aparecen en el sistema de entrada de la ecuación.
2. Los valores propios se obtienen de esta matriz que contiene los términos de los coeficientes.
3. Calcula todos los vectores propios de valores propios como los obtenidos en el paso anterior. Nómbralos en la secuencia a medida que son determinados como EV1, EV2, EV3 …EVn.
4. Calcula las ecuaciones correspondientes para cada uno de los conjuntos de valores propios y los vectores propios asociados. Repite este paso para cada par de valores y vectores propios.
5. Obtén la solución particular para un sistema de ecuaciones no homogéneo como,
Aquí X(t) se define como,X(t) = [x1 x2 x3 … xn]
Y en caso de que el sistema de entrada sea una ecuación diferencial homogénea, entonces la solución particular del sistema será dada de la forma,
La ecuación anterior nos da la relación,
En la relación anterior, y son valores propios y vectores propios, respectivamente.
6. Y la solución general para el sistema de ecuaciones diferenciales lineales es dada de la forma,
En general podemos decir que la solución de un sistema de ecuación diferencial es llamada solución general si los valores de las constantes no se obtienen en la solución final. La misma solución puede convertirse en una solución particular cuando tenemos el valor de las constantes determinadas. Esto se hace en el caso que el sistema de entrada de la ecuación diferencial sea un problema de valor inicial con las condiciones iniciales establecidas para la determinación de los términos constantes.
El ejemplo siguiente aclarará el procedimiento para resolver un sistema de ecuaciones diferenciales lineales.
Determina el conjunto de ecuaciones como xT(t) = [(x1(t), x2(t)] para el sistema de ecuaciones dx/ dt = A * x con las condiciones iniciales establecidas como x(0) = x0 = (x01, x02). El valor de la matriz A estádada como,
La ecuación característica de la matriz de coeficientes arriba es,
f( ) = 2 –trace(A) * + det(A) = 2 + 4 + 4
Y las raíces de esta ecuación nos dan repetidos valores propios de la matriz como, 1 = 2 = −2.
Entonces, el vector propio de la matriz es dado de la forma,
La matriz tiene un solo vector propio ya que ambos valores propios son los mismos. Por lo tanto, la solución general del problema se da como,
Por consiguiente, un vector propio generalizado puede ser calculado como, v = vp +s1* vh1 v1 v2 −1 0 +s1* 1 1
La solución particular de este problema sería vT(p) = (−1, 0) = v2, el cual es el valor propio generalizado de esta matriz, junto con los valores propios repetidos y vh es la solución homogénea dando el vector propiov1.
Y la solución general del problema es,
Estonos da,
x1(0) = c1 e0 + c2 (0 – e0) = c1 – c2 = x01
x1(0) = c1 e0 + c2 (0) = c1 = x02

miércoles, 20 de junio de 2012

4.2 Metodos de solucion para sistemas de Ecuaciones diferenciales lineales.

4.2 Metodos de solucion para sistemas de Ecuaciones diferenciales lineales. 

1. Motivación
2. Notación Vectorial
3. Sistemas Lineales Homogéneos
4. Sistemas Lineales Homogeneices

1. Motivación
Cuando consideramos la evolución de sistemas con varios grados de libertad o con varias partículas, natural
mente arribamos al tratamiento de sistemas de ecuaciones diferenciales. En estos sistemas encontramos varias
variables dependientes de una sola variable independiente. El mas natural de los ejemplos es el caso de un sistema
de partículas que se mueve en el espacio bajo la acción de fuerzas externas:




donde, la función F~i = Pj F~
i j expresa la sumatoria de fuerzas externas sobre cada partícula, vale decir:
Pero igual de importante es la posibilidad de convertir una ecuación diferencial ordinaria de orden superior
haciendo el siguiente cambio variable 


en un sistema de ecuaciones diferenciales
que puede ser generalizado a:
Notación Vectorial
El sistema lineal antes mencionado
puede condensarse en la siguiente ecuación matricial
u = P (t) u + g (t)
en la cual estamos representando: 



Sistemas Lineales Homogéneos

Dado un sistema de ecuaciones diferenciales con coeficientes constantes de la forma _x = A x procedemos de manera análoga al caso de una sola ecuación con coeficientes constantes



con a; aij ; »m constantes. Al sustituir las solución x = » er t
en la ecuación _x = A x obtenemos » r e
r t = » e
por lo cual, el problema se reduce a la búsqueda de los autovalores y autovectores del sistema A x = r »

Sistemas Lineales homogéneos
Todo operador lineal hermético A : V ¡! V;con n autovectores distintos, definidos por A uj i = j ju,
tiene una representación matricial diagonal A^
ij=¸i±ij mediante una transformación de similaridad TAT
A^ con T una matriz unitaria T¡1 = Tz     que trasforma la base de A a la base donde A^ es diagonal
auto valores distintos, tiene n autovectores linealmente independientes los cuales forman base de V y en la cual la representación matricial del A es diagonal. Pero como siempre es posible pasar de A no diagonal a A^ a diagonal
con los mismos autovalores mediante una transformación de similidaridad TAT
= A^ queda demostrado.
Nos queda determinar la forma de la matriz unitaria de transformación T: Para ello seleccionamos la base
canónica como base de partida de A con:
y la base de autovectores en la cual A^ es diagonal. Por lo tanto T es la matriz de transformación de una base a la otra, identidad cuando columna a columna nos damos cuenta que las columnas de
la matriz T son los autovectores de A



donde hemos denotado u (m) i , la componente m del vector j  Por lo tanto,
si los n autovalores y autovectores de A son distintos y conocidos, A se dice diagonalizable. Si A es hermética, T¡1 = Tz
y es muy fácil construir la inversa de la matriz de transformacion T: Si los autovalores de A con
degenerados, vale decir si el numero de autovectores linealmente independientes es menor que n, entonces A no es diagonalmente y no existe una matriz de transformacion T (T no tiene inversa) tal que TAT
¡1 = A^ :
Pagina de Internet:
http://webdelprofesor.ula.ve/ciencias/nunez/cursos/MetodosMatematicos2/M2ClsSistEcDif.pdf

4.2.1 Metodo de los operadores.

4.2.1 Metodo de los operadores. 

lunes, 18 de junio de 2012

4.2.2 Metodo Utilizando transformada de Laplace.

  4.2.2 Metodo Utilizando transformada de Laplace.


La transformada de Laplace de una función f(t) definida (en ecuaciones diferenciales, o en análisis matemático o en análisis funcional) para todos los números positivos t ≥ 0, es la funciónF(s), definida por:

siempre y cuando la integral esté definida. Cuando f(t) no es una función, sino una distribución con una singularidad en 0, la definición es:

Cuando se habla de la transformada de Laplace, generalmente se refiere a la versión unilateral. También existe la transformada de Laplace bilateral, que se define como sigue:
La transformada de Laplace F(s) típicamente existe para todos los números reales s > a, donde a es una constante que depende del comportamiento de crecimiento de f(t).
\mathcal{L} es llamado el operador de la transformada de Laplace.



PROPIEDADES



Tabla de las transformadas de Laplace mas comunes

La transformada de Laplace recibe su nombre en honor del matemático francés Pierre-Simon Laplace, que la presentó dentro de su teoría de la probabilidad. En 1744, Leonhard Euler había investigado un conjunto de integrales de la forma:
 z = \int X(x) e^{ax}\, dx
 z = \int X(x) x^A \, dx
— como soluciones de ecuaciones diferenciales, pero no profundizó en ellas y pronto abandonó su investigación. Joseph Louis Lagrange, admirador de Euler, también investigó ese tipo de integrales, y las ligó a la teoría de la probabilidad en un trabajo sobre funciones de densidad de probabilidad de la forma:
 \int X(x) e^{- a x } a^x\, dx,
— que algunos historiadores interpretan como auténticas transformadas de Laplace.
Este tipo de integrales atrajeron la atención de Laplace cuando, en 1782, y siguiendo la idea de Euler, trató de emplear estas integrales como soluciones de ecuaciones diferenciales. Parece ser que en 1785 dio un paso más allá, y reenfocó el problema para en vez de usar las integrales como soluciones, aplicarlas a las ecuaciones dando lugar a las transformadas de Laplace tal y como hoy en día se entienden. Usó una integral de la forma:
 \int x^s \phi (s)\, dx,
— análoga a la transformada de Mellin, con la que transformó una ecuación diferencial en una ecuación algebraica de la que buscó su solución. Planteó alguna de las principales propiedades de su transformada, y de alguna forma reconoció que el método de Joseph Fourier para resolver por medio de series de Fourier la ecuación de difusión podría relacionarse con su transformada integral para un espacio finito con soluciones periódicas.
Pese al logro, las transformadas de Laplace pronto cayeron en un relativo olvido, al haber sido presentadas en el campo de la probabilidad –ajeno a su moderna aplicación en la física y la ingeniería–, y ser tratadas sobre todo como objetos matemáticos meramente teóricos.
La moderna aplicación de las transformadas de Laplace y toda su teoría subyaciente surge en realidad en la segunda mitad del siglo XIX. Al tratar de resolver ecuaciones diferenciales relacionadas con la teoría de vibraciones, el ingeniero inglés Oliver Heaviside (1850-1925) descubrió que los operadores diferenciales podían tratarse analíticamente como variables algebraicas. De acuerdo con el "cálculo operacional", si se tiene una ecuación diferencial de la forma:
(D-a)y=f(t)\,
— donde D es el operador diferencial, esto es, D=d/dx, entonces la solución general a dicha ecuación es de la forma:
y=e^{at} \int e^{-at} f(t) dt +c_1 e^{at}.
Heaviside observó que si se trataba al operador D como una variable algebraica, era posible alcanzar igualmente la solución de toda ecuación pareja a la de arriba. En efecto, según la solución general, se cumple que:
y=\frac 1 {D-a} f(t)= e^{at} \int e^{-at} f(t) dt +c_1 e^{at}
Entonces, si se considera una ecuación diferencial de segundo orden como la siguiente:
y''-3y'+2y=e^t\,
— ésta puede reescribirse en para resaltar el operador D como:
(D^2-3D+2)y=e^t\,
Heaviside propuso despejar y y tratar a D algebraicamente, en cuyo caso se tendría que:
y= \frac {e^t} {D^2-3D+2} = \frac {e^t} {(D-1)(D-2)}=\frac 1 {D-2} e^t - \frac 1 {D-1} e^t
Sustituyendo las fracciones en D por la expresión integral de las mismas arriba presentada, se llega a la solución de la ecuación diferencial:
y=(e^{2t} \int e^{-2t} f(t) dt +c_1 e^{2t})-(e^{t} \int e^{-t} f(t) dt +c_2 e^{t})=e^{2t}(-e^{-t})+c_1 e^{2t})-(e^t (t) +c_2 e^t)
\Big (y=c_1 e^{2t}- (c_2+1) e^t -t e^t \Big)
Heaviside publicó sus resultados, cuya utilidad a la hora de resolver ecuaciones de la física y la ingeniería hizo que pronto se extendieran. Sin embargo, el trabajo de Heaviside, formal y poco riguroso, atrajo las críticas de algunos matemáticos puristas que los rechazaron argumentando que los resultados de Heaviside no podían surgir de tal forma. No obstante, el éxito del método hizo que pronto fuera adoptado por ingenieros y físicos de todo el mundo, de manera que al final atrajo la atención de cierto número de matemáticos tratando de justificar el método de manera rigurosa. Tras varias décadas de intentos, se descubrió que la Transformada descubierta por Laplace hacía un siglo no sólo ofrecía un fundamento teórico al método de cálculo operacional de Heaviside, sino que además ofrecía una alternativa mucho más sistemática a tales métodos.
Hacia principios del siglo XX, la transformada de Laplace se convirtió en una herramienta común de la teoría de vibraciones y de la teoría de circuitos, dos de los campos donde ha sido aplicada con más éxito. En general, la transformada es adecuada para resolver sistemas de ecuaciones diferenciales lineales con condiciones iniciales en el origen. Una de sus ventajas más significativas radica en que la integración y derivación se convierten en multiplicación y división. Esto transforma las ecuaciones diferenciales e integrales en ecuaciones polinómicas, mucho más fáciles de resolver.También se aplica en EDP y ecuaciones diferenciales en diferencias.

[Propiedades

[editar]Linealidad

\mathcal{L}\left\{a f(t) + b g(t) \right\}
  = a \mathcal{L}\left\{ f(t) \right\} +
    b \mathcal{L}\left\{ g(t) \right\}

Derivación

\mathcal{L}\{f'(t)\}
  = s \mathcal{L}\{f(t)\} - f(0)
\mathcal{L}\{f''(t)\}
  = s^2 \mathcal{L}\{f(t)\} - s f(0) - f'(0)
\mathcal{L}\left\{ f^{(n)}(t) \right\}
  = s^n \mathcal{L}\{f(t)\} - s^{n - 1} f(0) - \cdots - f^{(n - 1)}(0) =
=\mathcal{L}\left\{ f^{(n)}(t) \right\}
  = s^n \mathcal{L}\{f(t)\} - \sum_{i=1}^{n} s^{n - i} f^{(i - 1)}(0)

Integración

\mathcal{L}\left\{ \int_0^t f(\tau)\, d\tau \right\}
  = {1 \over s} \mathcal{L}\{f\}

Dualidad

\mathcal{L}\{ t f(t)\}
  = -F'(s)

Desplazamiento de la frecuencia

\mathcal{L}\left\{ e^{at} f(t) \right\} =
  F(s-a)

Desplazamiento temporal

\mathcal{L}\left\{ f(t - a) u(t - a) \right\}
  = e^{-as} F(s)
\mathcal{L}^{-1} \left\{ e^{-as} F(s) \right\}
  = f(t - a) u(t - a)
Nota: u(t) es la función escalón unitario.

Desplazamiento potencia n-ésima

\mathcal{L}\{\,t^nf(t)\} = (-1)^nD_s^n[F(s)]

Convolución

\mathcal{L}\{f*g\}
  = \mathcal{L}\{ f \} \mathcal{L}\{ g \}

Transformada de Laplace de una función con periodo p

\mathcal{L}\{ f \}
  = {1 \over 1 - e^{-ps}} \int_0^p e^{-st} f(t)\,dt

Condiciones de convergencia

\mathcal{L}\{(e^{t^2})\} (que crece más rápido que e^{-st}) no pueden ser obtenidas por Laplace, ya que e^{t^2}, es una función de orden exponencial de ángulos.

Teorema del valor inicial

Sea una función  f\in\varepsilon derivable a trozos y que f^{\prime}\in\varepsilon. Entonces :
f(0^{+})=\lim_{s\to\infty}{sF(s)}
 \varepsilon es el conjunto de funciones continuas a trozos con orden exponencial.

Teorema del valor fina

Seaf\in\varepsilon una función derivable a trozos tal que f^{\prime}\in\varepsilon.Entonces :

f(\infty)=\lim_{s\to0}{sF(s)}
 \varepsilon es el conjunto de funciones continuas a trozos con orden exponencial.
Tabla de las transformadas de Laplace más comunes
La siguiente tabla provee la mayoría de las transformaciones de Laplace para funciones de una sola variable.
Debido a que la transformada de Laplace es un operador lineal, la transformada de Laplace de una suma es la suma de la transformada de Laplace de cada término
\mathcal{L}\left\{f(t) + g(t) \right\}  = \mathcal{L}\left\{f(t)\right\} + \mathcal{L}\left\{ g(t) \right\}

\mathcal{L}\left\{a f(t)\right\}  = a \mathcal{L}\left\{ f(t)\right\}
Aquí está una lista de las transformadas más comunes. En ella  u  denota a la llamada función de Heaviside o función escalón, que vale 1 cuando su argumento es positivo y 0 cuando su argumento es negativo. Cuando su argumento vale 0 se le suele asignar el valor 1/2, aunque esto no tiene relevancia práctica.
IDFunciónDominio en el tiempo
x(t) = \mathcal{L}^{-1} \left\{ X(s) \right\}
Dominio en la frecuencia
X(s) = \mathcal{L}\left\{ x(t) \right\}
Región de la convergencia
para sistemas causales
1retaso ideal \delta(t-\tau) \  e^{-\tau s} \
1aimpulso unitario \delta(t) \  1 \  \mathrm{todo} \  s \,
2enésima potencia retrasada y con
desplazamiento en la frecuencia
\frac{(t-\tau)^n}{n!} e^{-\alpha (t-\tau)} \cdot u(t-\tau)  \frac{e^{-\tau s}}{(s+\alpha)^{n+1}}  s > - \alpha  \,
2an-ésima potencia{  t^n \over n! } \cdot u(t)  { 1 \over s^{n+1} }  s > 0 \,
2a.1q-ésima potencia{  t^q \over \Gamma(q+1) } \cdot u(t)  { 1 \over s^{q+1} }  s > 0 \,
2a.2escalón unitario u(t) \  { 1 \over s }  s > 0 \,
2bescalón unitario con retraso u(t-\tau) \  { e^{-\tau s} \over s }  s > 0 \,
2cRampa t \cdot u(t)\ \frac{1}{s^2} s > 0 \,
2dpotencia n-ésima con cambio de frecuencia\frac{t^{n}}{n!}e^{-\alpha t} \cdot u(t) \frac{1}{(s+\alpha)^{n+1}} s > - \alpha \,
2d.1amortiguación exponencial e^{-\alpha t} \cdot u(t)  \  { 1 \over s+\alpha }   s > - \alpha \
3convergencia exponencial( 1-e^{-\alpha t})  \cdot u(t)  \ \frac{\alpha}{s(s+\alpha)}   s > 0\
3bexponencial doble\frac{1}{b-a}\left(e^{-at}-e^{-bt}\right)\frac{1}{(s+a)(s+b)}  s > -a \ y \ s > -b\
4seno \sin(\omega t) \cdot u(t) \  { \omega \over s^2 + \omega^2  }  s > 0  \
5coseno \cos(\omega t) \cdot u(t) \  { s \over s^2 + \omega^2  }  s > 0 \
5bSeno con fase\sin(\omega t+\varphi)\cdot u(t)\frac{ s \sin(\varphi) + \omega\cos\varphi}{s^2+\omega^2} s > 0 \
6seno hiperbólico \sinh(\alpha t) \cdot u(t) \  { \alpha \over s^2 - \alpha^2 }  s > | \alpha | \
7coseno hiperbólico \cosh(\alpha t) \cdot u(t) \  { s \over s^2 - \alpha^2  }  s > | \alpha | \
8onda senoidal con
amortiguamiento exponencial
e^{-\alpha t}  \sin(\omega t) \cdot u(t) \  { \omega \over (s+\alpha )^2 + \omega^2  }  s > -\alpha \
9onda cosenoidal con
amortiguamiento exponencial
e^{-\alpha t}  \cos(\omega t) \cdot u(t) \  { s+\alpha \over (s+\alpha )^2 + \omega^2  }  s > -\alpha \
10raíz n-ésima \sqrt[n]{t} \cdot u(t)  s^{-(n+1)/n} \cdot \Gamma\left(1+\frac{1}{t}\right) s > 0 \,
11logaritmo natural \ln \left (  { t \over t_0 } \right ) \cdot u(t)  - { t_0 \over s} \  [ \  \ln(t_0 s)+\gamma \ ]  s > 0 \,
12Función de Bessel
de primer tipo,
de orden n
 J_n( \omega t) \cdot u(t)\frac{ \omega^n \left(s+\sqrt{s^2+ \omega^2}\right)^{-n}}{\sqrt{s^2 + \omega^2}} s > 0 \,
 (n > -1) \,
13Función de Bessel modificada
de primer tipo,
de orden n
I_n(\omega t) \cdot u(t) \frac{ \omega^n \left(s+\sqrt{s^2-\omega^2}\right)^{-n}}{\sqrt{s^2-\omega^2}}  s > | \omega | \,
14Función de Bessel
de segundo tipo,
de orden 0
 Y_0(\alpha t) \cdot u(t)
15Función de Bessel modificada
de segundo tipo,
de orden 0
 K_0(\alpha t) \cdot u(t)
16Función de error \mathrm{erf}(t) \cdot u(t)     {e^{s^2/4} \operatorname{erfc} \left(s/2\right) \over s} s > 0 \,
Notas explicativas:
  •  u(t) \,  representa la función escalón unitario.
  •  \delta(t) \,  representa la Delta de Dirac.
  •  \Gamma (z) \,  representa la función gamma.
  •  \gamma \,  es la constante de Euler-Mascheroni.