Clase 1 - Preliminares Matemáticos

1. Preliminares matemáticos

El lenguaje usado para describir fenómenos con la precisión necesaria es la matemática.

Figura 1. Matemáticas

La información recopilada se usa para representar matemáticamente las señales que fluyen a través de un sistema y darle solución.
 


Señal:  Es el resultado de la observación o medición de una cantidad física que varía con el tiempo, en el espacio o en función a cualquier otra variable independiente.


Las señales son representadas por funciones matemáticas de una o más variables. Por ejemplo, una señal de voz se puede representar como una función que depende del tiempo $f(x)$, 

Figura 2. Señal de voz

mientras que una imagen se puede considerar como una función que depende de dos variables espaciales $f(x,y)$.

Figura 3. Imagen



Función: Relación entre dos conjuntos que asigna a cada elemento del primero un elemento del segundo o ninguno. (es una regla de correspondencia que asocia elementos de dos conjuntos. Las funciones pueden ser escalares o vectoriales.


Figura 4. Función



Variable: es una literal con pertenencia a un espacio numérico, con la capacidad de adquirir cualquier valor definido dentro de dicho espacio.


Las variables pueden ser:

  • Escalares
  • Vectoriales
  • Matriciales


Escalar: se denomina escalar a los números que sirven para describir un fenómeno físico con magnitud, pero sin la característica vectorial de la dirección.


Figura 5. La temperatura es un escalar

1.1. Vectores


Vector:  Es una herramienta geométrica usada para representar una magnitud física definida en un sistema de referencia, la cual se caracteriza por tener magnitud (módulo o longitud), dirección y sentido (orientación). Sin embargo, en nuestra área de ingeniería representa la agrupación de señales físicas, tales como la posición, la velocidad, la fuerza, etcétera.


Figura 6. Vector


Se denotará por $\mathbb{R}^{n \times 1}$ al espacio euclidiano real de dimensión $n \times 1$, es decir, el conjunto de todos los vectores $\mathbf{x}$ de dimensión $n$ formados por $n$ elementos de números reales en forma de columna. Los vectores se representan en negritas para ser diferenciado de los escalares

\[\large{ \label{001} \mathbf{x} = \left[ {\begin{array}{c} x_1\\ x_2\\ \vdots\\ x_n \end{array}} \right] = \left[ {\begin{array}{ccc} x_1 & x_2 & \ldots & x_n \end{array}} \right]^{\textrm{T}} }\]


1.1.1. Tipos de vectores

  • Vector columna $\mathbb{R}^{n \times 1}$

\[\large{ \label{002} {\bf{x}} = \left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right] }\]


  • Vector renglón $\mathbb{R}^{1 \times n}$

\[\large{ \label{003} {\bf{x}} = \left[ {\begin{array}{*{20}{c}} {{x_1}}& {{x_2}}& \ldots & {{x_n}} \end{array}} \right] }\]

 

1.1.2. Operaciones con Vectores 

1.1.2.1. Suma de vectores

La suma o adición entre dos o más vectores se realiza sumando componente a componente


\[\large{ \label{004} {\bf{x}} + {\bf{y}} + {\bf{z}} = \left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right] + \left[ {\begin{array}{*{20}{c}} {{y_1}}\\ {{y_2}}\\ \vdots \\ {{y_n}} \end{array}} \right] + \left[ {\begin{array}{*{20}{c}} {{z_1}}\\ {{z_2}}\\ \vdots \\ {{z_n}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{x_1} + {y_1} + {z_1}}\\ {{x_2} + {y_2} + {z_2}}\\ \vdots \\ {{x_n} + {y_n} + {z_n}} \end{array}} \right] }\]

 

1.1.2.1.1. Propiedades de la adición

P1. ${\bf{x}} + {\bf{y}} = {\bf{y}} + {\bf{x}}$ donde ${\bf{x}},{\bf{y}} \in {\mathbb{R}^{n \times 1}}$ (Propiedad conmutativa).

 

P2. $\left( {{\bf{x}} + {\bf{y}}} \right) + {\bf{z}} = {\bf{x}} + \left( {{\bf{y}} + {\bf{z}}} \right)$ donde ${\bf{x}},{\bf{y}},{\bf{z}} \in {\mathbb{R}^{n \times 1}}$ (Propiedad asociativa).

 

P3. $\bf{x} + \bf{0} = \bf{0} + \bf{x} = \bf{x}$ donde ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ y ${\bf{0}} \in {\mathbb{R}^{n \times 1}}$ se conoce como vector nulo cuyos componentes son todos cero y se denota por


\[\large{ \label{005} {\bf{0}} = \left[ {\begin{array}{*{20}{c}} 0\\ 0\\ \vdots \\ 0 \end{array}} \right] }\]

 

1.1.2.2. Producto de un escalar por un vector

Sea un escalar $\alpha \in \mathbb{R}$ y el vector ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$, el producto entre ambos se define como:


\[\large{ \label{006} \alpha {\bf{x}} = \alpha \left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\alpha {x_1}}\\ {\alpha {x_2}}\\ \vdots \\ {\alpha {x_n}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right]\alpha = {\bf{x}}\alpha }\]

 

 

1.1.2.2.1. Propiedades del producto entre un escalar y un vector

P1. $\alpha \left( {{\bf{x}} + {\bf{y}}} \right) = \alpha {\bf{x}} + \alpha {\bf{y}}$ donde $\alpha \in {\mathbb{R}}$ y ${\bf{x}},{\bf{y}} \in {\mathbb{R}^{n \times 1}}$ (Propiedad distributiva).

 

P2. ${\bf{x}}\left( {\alpha + \beta } \right) = {\bf{x}}\alpha + {\bf{x}}\beta$ donde $\alpha ,\beta \in \mathbb{R}$ y ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$(Propiedad distributiva).

 

P3. $\left( {\alpha \beta } \right){\bf{x}} = \alpha \left( {\beta {\bf{x}}} \right) = \beta \left( {\alpha {\bf{x}}} \right) = \left( {\beta \alpha } \right){\bf{x}} = {\bf{x}}\left( {\alpha \beta } \right)$ donde $\alpha, \beta \in {\mathbb{R}}$ y ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ (Propiedad asociativa y distributiva).

 

P4. ${\bf{x}}\left( {\alpha \beta } \right) = \left( {{\bf{x}}\beta } \right)\alpha = \left( {{\bf{x}}\alpha } \right)\beta = {\bf{x}}\left( {\beta \alpha } \right)$ donde $\alpha, \beta \in {\mathbb{R}}$ y ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ (Propiedad asociativa y distributiva).

 

P5. $\left( {\alpha \beta } \right){\bf{x}} = \alpha \beta {\bf{x}} = \beta \alpha {\bf{x}} = {\bf{x}}\alpha \beta = {\bf{x}}\beta \alpha$ donde $\alpha, \beta \in {\mathbb{R}}$ y ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ (Propiedad asociativa y distributiva).

 

P6. $1 \: {\bf{x}} = {\bf{x}}$ para todo ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$.

 

1.1.2.3. Producto escalar

Producto escalar, también llamado producto interno, producto punto o producto interior, de dos vectores se define como

\[\large{ \label{007} {{\bf{x}}^{\rm{T}}}{\bf{y}} = \sum\limits_{i = 1}^n {{x_i}{y_i}} = \left[ {\begin{array}{*{20}{c}} {{x_1}}&{{x_2}}& \ldots &{{x_n}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{y_1}}\\ {{y_2}}\\ \vdots \\ {{y_n}} \end{array}} \right] = {\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right]^{\rm{T}}}\left[ {\begin{array}{*{20}{c}} {{y_1}}\\ {{y_2}}\\ \vdots \\ {{y_n}} \end{array}} \right]}\] 


1.1.2.3.1. Propiedades del producto escalar

El producto interno satisface las siguientes propiedades

P1. $\bf{x}^{\rm{T}} \bf{y} = \bf{y}^{\rm{T}} \bf{x}$ donde ${\bf{x}},{\bf{y}} \in {\mathbb{R}^{n \times 1}}$.

 

P2. ${{\bf{x}}^{\rm{T}}}\left( {{\bf{y}} + {\bf{z}}} \right) = {{\bf{x}}^{\rm{T}}}{\bf{y}} + {{\bf{x}}^{\rm{T}}}{\bf{z}}$ donde ${\bf{x}},{\bf{y}},{\bf{z}} \in {\mathbb{R}^{n \times 1}}$.


1.1.2.4. Norma Euclidiana

La norma euclidiana $\left\| \bf{x} \right\|$ de un vector ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ se define como

  \[\large{ \label{008} \left\| {\bf{x}} \right\| = \sqrt {\sum\limits_{i = 1}^n {{x_i}^2} } = \sqrt {{{\bf{x}}^{\rm{T}}}{\bf{x}}} }\]


donde sólo se considera la parte positiva de la raíz cuadrada. 


Observación
El cuadrado de la norma euclidiana $\left\| \bf{x} \right\|^{2}$ de un vector ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ se define como

\[ \label{009} {\left\| {\bf{x}} \right\|^2} = {\left( {\sqrt {\sum\limits_{i = 1}^n {{x_i}^2} } } \right)^2} = {\left( {\sqrt {{{\bf{x}}^{\rm{T}}}{\bf{x}}} } \right)^2} = {{\bf{x}}^{\rm{T}}}{\bf{x}} \] donde sólo se considera la parte positiva de la raíz cuadrada.


1.1.2.4.1. Propiedades de la Norma Euclidiana

La norma euclidiana satisface las siguientes propiedades

P1. $\left\| \bf{x} \right\| = \bf{0}$ si y sólo si $\bf{x} = \bf{0}$ donde ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$.


P2. $\left\| \bf{x} \right\| > \bf{0}$ para todo ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ con $\bf{x} \ne \bf{0}$ donde ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$.


P3. $\left\| \alpha \bf{x} \right\| = \left| \alpha  \right|\left\| \bf{x} \right\|$ para todo $\alpha \in \mathbb{R}$ y ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$.


P4. $\left\| \bf{x} \right\| - \left\| \bf{y} \right\| \le \left\| \bf{x} + \bf{y} \right\| \le \left\| \bf{x} \right\| + \left\| \bf{y} \right\|$ para todo ${\bf{x}},{\bf{y}} \in {\mathbb{R}^{n \times 1}}$ (Desigualdad del triángulo).


P5. $\left\| \bf{x}^{\mathrm{T}} \bf{y} \right\| \le \left\| \bf{x} \right\|\left\| \bf{y} \right\|$ para todo ${\bf{x}},{\bf{y}} \in {\mathbb{R}^{n \times 1}}$ (Desigualdad de Schwarz).


1.2. Matrices

Matriz: conjunto de ecuaciones simultáneas de la forma 

\[ \label{010} \begin{array}{*{20}{c}} {{a_{11}}{x_1} + {a_{12}}{x_2} + }& \ldots &{ + {a_{1n}}{x_n}}& = &{{b_1}}\\ {{a_{21}}{x_1} + {a_{22}}{x_2} + }& \ldots &{ + {a_{2n}}{x_n}}& = &{{b_2}}\\ {}& \ldots &{}& = & \vdots \\ {{a_{n1}}{x_1} + {a_{n2}}{x_2} + }& \ldots &{ + {a_{nn}}{x_n}}& = &{{b_n}} \end{array}\]

que se puede agrupar de la forma

\[\large{ \label{011} \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{2n}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nn}}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{b_1}}\\ {{b_2}}\\ \vdots \\ {{b_n}} \end{array}} \right]}\]

Se denotará por ${\bf{A}} \in {\mathbb{R}^{n \times m}}$ al conjunto de matrices de dimensión $n \times m$ formada por un arreglo de números reales ordenados en $n$ renglones y $m$ columnas


\[\large{ \label{012} {\bf{A}} = \left\{ {{a_{ij}}} \right\} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1m}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{2m}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nm}}} \end{array}} \right] }\]


Las matrices se representan en negritas para ser diferenciado de los escalares.


1.2.1. Operaciones con Matrices 

1.2.1.1. Suma de matrices

La suma de matrices existe solo entre matrices de la misma dimensión, es decir ${\bf{A}}, {\bf{B}} \in {\mathbb{R}^{n \times m}}$, lo que daría como resultado una matriz resultante de las mismas dimensiones ${\bf{C}} \in {\mathbb{R}^{n \times m}}$. El procedimiento para realizar la suma de matrices consiste en sumar elemento a elemento, tal que \[\normalsize{ \label{013} {\bf{A}} + {\bf{B}} = \left\{ {{a_{ij}}} \right\} + \left\{ {{b_{ij}}} \right\} = \left( {{a_{ij}} + {b_{ij}}} \right) }\] donde $i= 1, 2, \ldots, n$ y $j= 1, 2, \ldots, m$.


\[\large{ \begin{align} {\bf{A}} + {\bf{B}} & = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}& {{a_{12}}}&\cdots &{{a_{1m}}}\\ {{a_{21}}}&{{a_{22}}}&\cdots &{{a_{2m}}}\\ \vdots &\vdots &\ddots &\vdots \\ {{a_{n1}}}&{{a_{n2}}}&\cdots &{{a_{nm}}} \end{array}} \right] + \left[ {\begin{array}{*{20}{c}} {{b_{11}}}&{{b_{12}}}&\cdots &{{b_{1m}}}\\ {{b_{21}}}&{{b_{22}}}&\cdots &{{b_{2m}}}\\ \vdots &\vdots &\ddots &\vdots \\ {{b_{n1}}}&{{b_{n2}}}&\cdots &{{b_{nm}}} \end{array}} \right] \nonumber\\ \nonumber \\ &= \left[ {\begin{array}{*{20}{c}} {{a_{11}} + {b_{11}}}&{{a_{12}} + {b_{12}}}&\cdots &{{a_{1m}} + {b_{1m}}}\\ {{a_{21}} + {b_{21}}}&{{a_{22}} + {b_{22}}}&\cdots &{{a_{2m}} + {b_{2m}}}\\ \vdots &\vdots &\ddots &\vdots \\ {{a_{n1}} + {b_{n1}}}&{{a_{n2}} + {b_{n2}}}&\cdots &{{a_{nm}} + {b_{nm}}} \end{array}} \right] \label{014} \end{align} }\]



1.2.1.1.1. Propiedades de la suma de matrices

P1. ${\bf{A}} + {\bf{B}} + {\bf{C}} = {\bf{B}} + {\bf{A}} + {\bf{C}} = {\bf{A}} + {\bf{C}} + {\bf{B}} = {\bf{C}} + {\bf{A}} + {\bf{B}} = {\bf{C}} + {\bf{B}} + {\bf{A}} = {\bf{B}} +$ $ {\bf{C}} + {\bf{A}}$  donde ${\bf{A}},{\bf{B}}, {\bf{C}} \in {\mathbb{R}^{n \times n}}$ (Propiedad conmutativa).

 

P2. ${\bf{A}} + {\bf{B}} + {\bf{C}} = {\bf{A}} + \left( {{\bf{B}} + {\bf{C}}} \right) = \left( {{\bf{A}} + {\bf{B}}} \right) + {\bf{C}}$ donde ${\bf{A}},{\bf{B}},{\bf{C}} \in {\mathbb{R}^{n \times n}}$ (Propiedad asociativa).

 

P3. ${\bf{A}} + {\bf{O}} = {\bf{O}} + {\bf{A}} = {\bf{A}}$ donde ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ y ${\bf{O}} \in {\mathbb{R}^{n \times n}}$ se conoce como Matriz Nula cuyos componentes son todos cero y se denota por

\[\large{ \label{015} {\bf{O}} = \left[ {\begin{array}{*{20}{c}} 0&0& \cdots &0\\ 0&0& \cdots &0\\ \vdots & \vdots & \ddots & \vdots \\ 0&0& \cdots &0 \end{array}} \right] }\]

 

P4. $\alpha \left( \bf{A} + \bf{B} \right) = \alpha \bf{A} + \alpha \bf{B}$ donde $\alpha  \in \mathbb{R}$ y ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P5. $\left( {\alpha  + \beta } \right) \bf{A} = \alpha \bf{A} + \beta \bf{A}$ donde $\alpha ,\beta  \in \mathbb{R}, {\bf{x}},{\bf{y}} \in {\mathbb{R}^{n \times 1}}$ y ${\bf{A}},{\bf{B}},{\bf{C}} \in {\mathbb{R}^{n \times n}}$.


P6. $\alpha \left( \beta \bf{A} \right) = \left( \alpha \beta \right) \bf{A}$ donde $\alpha, \beta \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.1.2. Resta de matrices

La resta de matrices existe solo entre matrices de la misma dimensión, es decir ${\bf{A}}, {\bf{B}} \in {\mathbb{R}^{n \times m}}$, lo que daría como resultado una matriz resultante de las mismas dimensiones ${\bf{C}} \in {\mathbb{R}^{n \times m}}$. El procedimiento para realizar la resta de matrices consiste en restar elemento a elemento, tal que \[\normalsize{ \label{016} {\bf{A}} - {\bf{B}} = \left\{ {{a_{ij}}} \right\} - \left\{ {{b_{ij}}} \right\} = \left( {{a_{ij}} - {b_{ij}}} \right) }\] donde $i= 1, 2, \ldots, n$ y $j= 1, 2, \ldots, m$.


\[\large{ \label{017} \begin{align} {\bf{A}} - {\bf{B}} & = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \cdots &{{a_{1m}}}\\ {{a_{21}}}&{{a_{22}}}& \cdots &{{a_{2m}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \cdots &{{a_{nm}}} \end{array}} \right] - \left[ {\begin{array}{*{20}{c}} {{b_{11}}}&{{b_{12}}}& \cdots &{{b_{1m}}}\\ {{b_{21}}}&{{b_{22}}}& \cdots &{{b_{2m}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{b_{n1}}}&{{b_{n2}}}& \cdots &{{b_{nm}}} \end{array}} \right] \nonumber\\ \nonumber\\ & = \left[ {\begin{array}{*{20}{c}} {{a_{11}} - {b_{11}}}&{{a_{12}} - {b_{12}}}& \cdots &{{a_{1m}} - {b_{1m}}}\\ {{a_{21}} - {b_{21}}}&{{a_{22}} - {b_{22}}}& \cdots &{{a_{2m}} - {b_{2m}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}} - {b_{n1}}}&{{a_{n2}} - {b_{n2}}}& \cdots &{{a_{nm}} - {b_{nm}}} \end{array}} \right] \end{align} }\]



Observación
La resta de matrices no es conmutativa, es decir ${\bf{A}} - {\bf{B}} \ne {\bf{B}} - {\bf{A}}$. Sin embargo, ${\bf{A}} - {\bf{B}} = - {\bf{B}} + {\bf{A}}$


1.2.1.2.1. Propiedades de la resta de matrices

P1. ${\bf{A}} - {\bf{B}} - {\bf{C}} = - {\bf{B}} + {\bf{A}} - {\bf{C}} = {\bf{A}} - {\bf{C}} - {\bf{B}} = -{\bf{C}} + {\bf{A}} - {\bf{B}} = - {\bf{C}} - {\bf{B}} + {\bf{A}} =$ $- {\bf{B}} - {\bf{C}} + {\bf{A}}$  donde ${\bf{A}},{\bf{B}}, {\bf{C}} \in {\mathbb{R}^{n \times n}}$ (Propiedad conmutativa).

 

P2. ${\bf{A}} - {\bf{B}} - {\bf{C}} = {\bf{A}} - \left( {{\bf{B}} + {\bf{C}}} \right) = \left( {{\bf{A}} - {\bf{B}}} \right) - {\bf{C}}$ donde ${\bf{A}},{\bf{B}},{\bf{C}} \in {\mathbb{R}^{n \times n}}$ (Propiedad asociativa).

 

P3. ${\bf{A}} - {\bf{O}} = - {\bf{O}} + {\bf{A}} = {\bf{A}}$ donde ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ y ${\bf{O}} \in {\mathbb{R}^{n \times n}}$ se conoce como Matriz Nula cuyos componentes son todos cero y se denota por

\[\large{ \label{018} {\bf{O}} = \left[ {\begin{array}{*{20}{c}} 0&0& \cdots &0\\ 0&0& \cdots &0\\ \vdots & \vdots & \ddots & \vdots \\ 0&0& \cdots &0 \end{array}} \right] }\]

 

P4. ${\bf{A}} - {\bf{B}} = - ( {\bf{B}} - {\bf{A}})$ donde ${\bf{A}}, {\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.1.3. Multiplicación de matrices

Sean las matrices ${\bf{A}} \in {\mathbb{R}^{n \times p}}$ y ${\bf{B}} \in {\mathbb{R}^{p \times m}}$. El producto de matrices existe sólo en el caso en que el número de las columnas de ${\bf{A}}$ es igual al número de los renglones de ${\bf{B}}$. La matriz resultante es ${\bf{C}} \in {\mathbb{R}^{n \times m}}$

\[\large{ \label{019} \begin{align} {\bf{C}} &= \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1p}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{2p}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{np}}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{b_{11}}}&{{b_{12}}}& \ldots &{{b_{1m}}}\\ {{b_{21}}}&{{b_{22}}}& \ldots &{{b_{2m}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{b_{p1}}}&{{b_{p2}}}& \ldots &{{b_{pm}}} \end{array}} \right] \nonumber\\ \nonumber\\ & = \left[ {\begin{array}{*{20}{c}} {\sum\limits_{k = 1}^p {{a_{1k}}{b_{k1}}} }&{\sum\limits_{k = 1}^p {{a_{1k}}{b_{k2}}} }& \ldots &{\sum\limits_{k = 1}^p {{a_{1k}}{b_{kn}}} }\\ {\sum\limits_{k = 1}^p {{a_{2k}}{b_{k1}}} }&{\sum\limits_{k = 1}^p {{a_{2k}}{b_{k2}}} }& \ldots &{\sum\limits_{k = 1}^p {{a_{2k}}{b_{kn}}} }\\ \vdots & \vdots & \ddots & \vdots \\ {\sum\limits_{k = 1}^p {{a_{nk}}{b_{k1}}} }&{\sum\limits_{k = 1}^p {{a_{nk}}{b_{k2}}} }& \ldots &{\sum\limits_{k = 1}^p {{a_{nk}}{b_{kn}}} } \end{array}} \right] \end{align} }\]


Observación
El producto de matrices no es conmutativo, es decir ${\bf{A}}{\bf{B}} \neq {\bf{B}}{\bf{A}}$

 

1.2.1.3.1. Propiedad de la multiplicación de matrices

P1. $\bf{A}\left( \bf{B} + \bf{C} \right) = \bf{AB} + \bf{AC}$ donde ${\bf{A}},{\bf{B}},{\bf{C}} \in {\mathbb{R}^{n \times n}}$.

 

P2. $\left( \bf{A} + \bf{B} \right) \bf{C} = \bf{AC} + \bf{BC}$ donde ${\bf{A}},{\bf{B}},{\bf{C}} \in {\mathbb{R}^{n \times n}}$.

 

P3. $\bf{A} \left( \bf{BC} \right) = \left( \bf{AB} \right) \bf{C}$ donde ${\bf{A}},{\bf{B}},{\bf{C}} \in {\mathbb{R}^{n \times n}}$.

 

P4. $\alpha \left( \bf{AB} \right) = \left( \alpha \bf{A} \right) \bf{B} = \bf{A} \left( \alpha \bf{B} \right)$ donde $\alpha \in \mathbb{R}$, y ${\bf{A}}, {\bf{B}}, {\bf{C}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.2. Tipo de Matrices 

1.2.2.1. Matriz Transpuesta

La matriz transpuesta ${{\bf{A}}^{\rm{T}}} = {a_{ji}} \in {\mathbb{R}^{m \times n}}$ se obtiene intercambiando los renglones y las columnas de la matriz ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times m}}$.

\[\large{ \label{020} {{\bf{A}}^{\rm{T}}} = \left\{ {{a_{ji}}} \right\} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{21}}}& \ldots &{{a_{m1}}}\\ {{a_{12}}}&{{a_{22}}}& \ldots &{{a_{m2}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{1n}}}&{{a_{2n}}}& \ldots &{{a_{mn}}} \end{array}} \right]} \]


1.2.2.1.1. Propiedades de la Matriz Transpuesta

P1. $\left( \bf{A}^{\mathrm{T}} \right)^{\mathrm{T}} = \bf{A}$ donde ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P2. $\left( \bf{A} + \bf{B} \right)^{\mathrm{T}} = \bf{A}^{\mathrm{T}} + \bf{B}^{\mathrm{T}}$ donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P3. $\left( \bf{AB} \right)^{\mathrm{T}} = \bf{B}^{\mathrm{T}} \bf{A}^{\mathrm{T}}$ donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P4. $\left( \alpha \bf{A} \right)^{\mathrm{T}} = \alpha \bf{A}^{\mathrm{T}}$ donde $\alpha \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.2.2. Matriz Cuadrada

Una matriz $\bf{A}$ es cuadrada si el número de renglones es igual al número de columnas, es decir $n=m$

\[\large{ \label{021} {\bf{A}} = \left\{ {{a_{ij}}} \right\} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{n1}}}\\ {{a_{12}}}&{{a_{22}}}& \ldots &{{a_{n2}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{1n}}}&{{a_{2n}}}& \ldots &{{a_{nn}}} \end{array}} \right] }\]



1.2.2.2.1. Matriz Simétrica

Una matriz cuadrada ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ es simétrica si esta es igual a su transpuesta, es decir $\bf{A} = \bf{A}^{\mathrm{T}}$

\[\large{ \label{022} \begin{align} \bf{A} &= \left\{ a_{ij} \right\} = \left[ {\begin{array}{*{20}{c}} a_{11}&a_{12}& \ldots &a_{n1}\\ a_{12}&a_{22}& \ldots &a_{n2}\\ \vdots & \vdots & \ddots & \vdots \\ a_{1n}&a_{2n}& \ldots &a_{nn} \end{array}} \right] \nonumber\\ \nonumber\\ \bf{A}^{\mathrm{T}} &= \left\{ a_{ji} \right\} = \left[ {\begin{array}{*{20}{c}} a_{11}&a_{12}& \ldots &a_{n1}\\ a_{12}&a_{22}& \ldots &a_{n2}\\ \vdots & \vdots & \ddots & \vdots \\ a_{1n}&a_{2n}& \ldots &a_{nn} \end{array}} \right] \end{align} } \]

 

1.2.2.2.1.1. Propiedades de la matriz simétrica

P1. Si $\bf{A}$ es una matriz cuadrada $\bf{A} + \bf{A}^{\mathrm{T}}$ es simétrica donde ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.


P2. Si $\bf{A}$ y $\bf{B}$ son matrices simétricas: $\bf{A} + \bf{B}$ también es simétrica donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P3. Si $\bf{A}$ es una matriz simétrica: $\alpha \bf{A}$ también es simétrica siendo $\alpha \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P4. Si $\bf{A}$ y $\bf{B}$ son matrices simétricas: $\bf{A} \bf{B}$ no necesariamente es simétrica donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$


1.2.2.2.2. Matriz Antisimétrica

Una matriz cuadrada ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ es antisimétrica si es igual a su transpuesta negativa, es decir $\bf{A} = -\bf{A}^{\mathrm{T}}$


1.2.2.2.2.1. Propiedades de la matriz antisimétrica

P1. Si $\bf{A}$ es una matriz cuadrada $\bf{A} - \bf{A}^{\mathrm{T}}$ es antisimétrica donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P2. Si $\bf{A}$ y $\bf{B}$ son matrices antisimétricas: $\bf{A} + \bf{B}$ también es antisimétrica donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P3. Si $\bf{A}$ es una matriz antisimétrica: $\alpha \bf{A}$ también es antisimétrica donde $\alpha \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P4. Si $\bf{A}$ y $\bf{B}$ son matrices antisimétricas: $\bf{A} \bf{B}$ no necesariamente es antisimétrica donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.2.2.3. Matriz Diagonal

Una matriz cuadrada ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times n}}$ es diagonal si $a_{ij}=0$ para todo $i \neq j$ y se denota por $\mathrm{diag} \left\{ a_{11}, a_{22}, \ldots, a_{nn}\right\} \in {\mathbb{R}^{n\times n}}$

\[\large{ \label{023} {\bf{A}} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&0&0\\ 0&{{a_{22}}}&0\\ 0&0&{{a_{33}}} \end{array}} \right]}\]

 

1.2.2.2.3.1. Propiedades de la matriz diagonal

P1. Si $\bf{A}$ y $\bf{B}$ son matrices diagonales:   \[\large{ \label{024} {\bf{A}} + {\bf{B}} = {\rm{diag}}\left\{ {{a_{11}} + {b_{11}},{a_{22}} + {b_{22}}, \ldots ,{a_{nn}} + {b_{nn}}} \right\} } \] donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P2. Si $\bf{A}$ y $\bf{B}$ son matrices diagonales:   \[\large{ \label{025} {\bf{AB}} = {\rm{diag}}\left\{ {{a_{11}}{b_{11}},{a_{22}}{b_{22}}, \ldots ,{a_{nn}}{b_{nn}}} \right\} }\] donde ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P3. Si $\bf{A}$ es una matriz diagonal:   \[\large{ \label{026} \alpha {\bf{A}} = {\rm{diag}}\left\{ {\alpha {a_{11}},\alpha {a_{22}}, \ldots ,\alpha {a_{nn}}} \right\} }\] donde $\alpha \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.2.2.4. Matriz Identidad

Una matriz cuadrada ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times n}}$ se dice que es la identidad si $a_{ij}=0$ para todo $i \neq j$ y $a_{ij}=1$ para todo $i = j$ y se denota por ${\bf{I}} \in {\mathbb{R}^{n \times n}}$

\[\large{ \label{027} {\bf{I}} = \left[ {\begin{array}{*{20}{c}} 1&0&0\\ 0&1&0\\ 0&0&1 \end{array}} \right]} \]

 

1.2.2.2.4.1. Propiedad de la matriz identidad

P1. Si $\bf{A}$ es una matriz cuadrada y se multiplica por izquierda o derecha por la matriz identidad se obtiene la misma matriz, es decir $\bf{A} \bf{I} = \bf{I} \bf{A} = \bf{A}$

 

\[\large{ \begin{align*} \underbrace {\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{nn}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nn}}} \end{array}} \right]}_{\bf{A}}\underbrace {\left[ {\begin{array}{*{20}{c}} 1&0& \ldots &0\\ 0&1& \ldots &0\\ \vdots & \vdots & \ddots & \vdots \\ 0&0& \ldots &1 \end{array}} \right]}_{\bf{I}} &= \underbrace {\left[ {\begin{array}{*{20}{c}} 1&0& \ldots &0\\ 0&1& \ldots &0\\ \vdots & \vdots & \ddots & \vdots \\ 0&0& \ldots &1 \end{array}} \right]}_{\bf{I}}\underbrace {\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{nn}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nn}}} \end{array}} \right]}_{\bf{A}}\\ \nonumber\\ & = \underbrace {\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{nn}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nn}}} \end{array}} \right]}_{\bf{A}} \end{align*} }\]

 

1.2.2.2.5. Matriz Nula

Una matriz cuadrada ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times n}}$ se dice que es nula si $a_{ij}=0$ para todo $i$ y $j$ y se denota por ${\bf{Z}} \in {\mathbb{R}^{n \times n}}$

\[\large{{\bf{Z}} = \left[ {\begin{array}{*{20}{c}} 0&0&0\\ 0&0&0\\ 0&0&0 \end{array}} \right]}\]

 

1.2.2.2.5.1. Propiedad de la matriz Nula

P1. $\bf{A} + \bf{Z} = \bf{A}$ donde ${\bf{A}}, {\bf{Z}} \in {\mathbb{R}^{n \times n}}$.

 

P2. $\bf{A} + \left( -\bf{A} \right) = \bf{Z} = \bf{0}$ donde ${\bf{A}}, {\bf{Z}} \in {\mathbb{R}^{n \times n}}$.

 

P3. $\bf{A} \bf{Z} = \bf{A} \bf{0} = \bf{0}$ donde ${\bf{A}}, {\bf{Z}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.2.2.6. Matriz Triangular

Una matriz cuadrada ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ se dice que es triangular superior si los elementos bajo la diagonal principal son cero

\[\large{{\bf{A}} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\ 0&{{a_{22}}}& \ldots &{{a_{2n}}}\\ 0&0& \ddots & \vdots \\ 0&0& \ldots &{{a_{nn}}} \end{array}} \right]}\]

 

Mientras que una matriz cuadrada ${\bf{B}} \in {\mathbb{R}^{n \times n}}$ se dice que es triangular inferior si los elementos sobre la diagonal principal son cero

\[\large{{\bf{B}} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&0& \ldots &0\\ {{a_{21}}}&{{a_{22}}}& \ldots &0\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nn}}} \end{array}} \right]}\]

 

1.2.3. Determinante de una matriz 

Sea ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ una matriz cuadrada donde $n=2$, tal que


\[\large{{\bf{A}} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right]}\]


entonces el determinante de la matriz ${\bf{A}}$ se define como


\[\large{{\rm{det}}\left( {{\bf{ A}}} \right) = {a_{11}}{a_{22}} - {a_{12}}{a_{21}}}\]

 

1.2.3.1. Propiedades de los determinantes

P1. El valor de un determinante no varía si en la matriz a evaluar se intercambian sus filas por sus columnas; es decir: $\det \left( \bf{A} \right) = \det \left( \bf{A}^{\mathrm{T}} \right)$ donde $\lambda \in \mathbb{R}$ y ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P2. $\det \left( \lambda \bf{A} \right) = \lambda^{n} \det \left( \bf{A} \right)$ donde $n$ es el orden de $\bf{A}$ donde $\lambda \in \mathbb{R}$ y ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P3. $\det \left( \bf{AB} \right) = \det \left(\bf{A} \right) \det \left( \bf{B} \right)$ donde $\lambda \in \mathbb{R}$ y ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P4. $\det \left( \bf{A}^{-1} \right) = \dfrac{1}{\det \left( \bf{A} \right)}$ suponiendo que $\bf{A}^{-1}$  existe donde $\lambda \in \mathbb{R}$ y ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P5.  Si todos los elementos de una fila o columna de una matriz son nulos, el valor del determinante es nulo donde $\lambda \in \mathbb{R}$ y ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P6. Si una matriz tiene dos filas o columnas iguales, el valor del determinante es cero.

 

P7. Si una matriz tiene dos filas o columnas proporcionales, el valor del determinante es cero.

 

P8. Si todos los elementos de una fila o columna se multiplican por un mismo escalar, el valor del determinante queda multiplicado por dicho escalar.

 

P9. Si en una matriz se intercambian dos de sus filas o columnas, el valor del determinante cambia de signo, pero mantiene su valor absoluto.

 

P10. Si a una fila o columna de una matriz se le suma el múltiplo de cualquier otra (fila o columna), el valor del determinante no varía.

 

P11. El determinante de una matriz triangular es igual al producto de los elementos de su diagonal principal.

 

1.2.4. Matrices Especiales

1.2.4.1. Matriz de Cofactores 

Sea la matriz ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ una matriz cuadrada se realizan las siguientes combinaciones

 

\[\large{ \begin{array}{*{20}{c}} {\left[ {\begin{array}{*{20}{c}} \blacksquare &\blacksquare&\blacksquare\\ \blacksquare &{{a_{22}}}&{{a_{23}}}\\ \blacksquare &{{a_{32}}}&{{a_{33}}} \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} \blacksquare&\blacksquare&\blacksquare\\ {{a_{21}}}&\blacksquare&{{a_{23}}}\\ {{a_{31}}}&\blacksquare&{{a_{33}}} \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} \blacksquare&\blacksquare&\blacksquare\\ {{a_{21}}}&{{a_{22}}}&\blacksquare\\ {{a_{31}}}&{{a_{32}}}&\blacksquare \end{array}} \right]}\\ {\left[ {\begin{array}{*{20}{c}} \blacksquare&{{a_{12}}}&{{a_{13}}}\\ \blacksquare&\blacksquare&\blacksquare\\ \blacksquare&{{a_{32}}}&{{a_{33}}} \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&\blacksquare&{{a_{13}}}\\ \blacksquare&\blacksquare&\blacksquare\\ {{a_{31}}}&\blacksquare&{{a_{33}}} \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&\blacksquare\\ \blacksquare&\blacksquare&\blacksquare\\ {{a_{31}}}&{{a_{32}}}&\blacksquare \end{array}} \right]}\\ {\left[ {\begin{array}{*{20}{c}} \blacksquare&{{a_{12}}}&{{a_{13}}}\\ \blacksquare&{{a_{22}}}&{{a_{23}}}\\ \blacksquare&\blacksquare&\blacksquare \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&\blacksquare&{{a_{13}}}\\ {{a_{21}}}&\blacksquare&{{a_{23}}}\\ \blacksquare&\blacksquare&\blacksquare \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&\blacksquare\\ {{a_{21}}}&{{a_{22}}}&\blacksquare\\ \blacksquare&\blacksquare&\blacksquare \end{array}} \right]} \end{array} }\]

 

y se obtiene el determinante de cada una de ellas

 

\[\normalsize{{\bf{C}} = \left[ {\begin{array}{*{20}{c}} { + \left( {{a_{22}}{a_{33}} - {a_{23}}{a_{32}}} \right)}&{}&{{\rm{ }} - \left( {{a_{21}}{a_{33}} - {a_{23}}{a_{31}}} \right)}&{}&{{\rm{ }} + \left( {{a_{21}}{a_{32}} - {a_{22}}{a_{31}}} \right)}\\ {}&{}&{}&{}&{}\\ { - \left( {{a_{12}}{a_{33}} - {a_{13}}{a_{32}}} \right)}&{}&{{\rm{ }} + \left( {{a_{11}}{a_{33}} - {a_{13}}{a_{31}}} \right)}&{}&{{\rm{ }} - \left( {{a_{11}}{a_{32}} - {a_{12}}{a_{31}}} \right)}\\ {}&{}&{}&{}&{}\\ { + \left( {{a_{12}}{a_{23}} - {a_{13}}{a_{22}}} \right)}&{}&{{\rm{ }} - \left( {{a_{11}}{a_{23}} - {a_{13}}{a_{21}}} \right)}&{}&{{\rm{ }} + \left( {{a_{11}}{a_{22}} - {a_{12}}{a_{21}}} \right)} \end{array}} \right]}\]

 

así se forma la matriz de cofactores, también conocida como Matriz Adjunta.

 


Observación

El archivo cofactores.m debe estar localizado en la carpeta actual (current folder) en Matlab para que funcione el programa


1.2.4.2. Matriz Inversa

Una matriz cuadrada ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times n}}$ no singular puede invertirse si

 

\[\large{{{\bf{A}}^{ - 1}} = \frac{{{{\bf{C}}^{\rm{T}}}}}{{{\rm{det}}\left( {\bf{A}} \right)}}}\]

 

donde $\bf{C}$ es la matriz de cofactores y $\det \left( \bf{A} \right) \neq 0.$

 

1.2.4.2.1. Propiedades de la Matriz Inversa

P1. $\bf{A}^{-1}$ es única siendo ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P2. $\left( \bf{A}^{-1} \right)^{-1} = \bf{A}$ donde ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P3. $\left( \bf{AB} \right)^{-1} = \bf{B}^{- 1} \bf{A}^{-1}$ donde ${\bf{A}}, {\bf{B}} \in {\mathbb{R}^{n \times n}}$.

 

P4. $\left( \alpha \bf{A} \right)^{-1} = \dfrac{1}{\alpha } \bf{A}^{-1}$ para toda $\alpha \neq 0$ donde $\alpha \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P5.  $\left( \bf{A}^{n} \right)^{-1} = \left( \bf{A}^{-1} \right)^{n}$ donde  ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

P6.  $\left( \bf{A}^{\mathrm{T}} \right)^{-1} = \left( \bf{A}^{-1}\right)^{\mathrm{T}}$ donde ${\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

1.2.4.2.2. Pseudo inversa de Moore--Penrose

Las inversas generalizadas presentan una alternativa a la resolución de sistemas de ecuaciones lineales, proporcionando al mismo tiempo un excelente procedimiento para la resolución de ecuaciones matriciales. 

La pseudo inversa de Moore--Penrose permite analizar si el sistema de ecuaciones lineales no homogéneo admite solución y si es así permite obtener su expresión; en el caso de no existir solución proporciona una solución aproximada en un sentido concreto. 

Moore--Penrose en 1955 demostraron que para cualquier matriz $\bf{A}$ de coeficientes reales con $m$ filas y $n$ columnas que cumple con las siguientes 4 condiciones:

\[\large{ \begin{align} {\bf{A}} &= {\bf{APA}}\\ {\bf{P}} &= {\bf{PAP}}\\ {\bf{AP}} &= {\left( {{\bf{AP}}} \right)^{\rm{T}}}\\ {\bf{PA}} &= {\left( {{\bf{PA}}} \right)^{\rm{T}}} \end{align} }\]

donde $\bf{P}$ es la matriz inversa de Moore-Penrose.

La pseudo inversa de Moore--Penrose se define de dos formas

\[\large{ \begin{align} {\bf{P}_{{\rm{derecha}}}} &= {\bf{A}^{\rm{T}}}{\left( {\bf{A}{\bf{A}^{\rm{T}}}} \right)^{ - 1}}\\ \nonumber\\ {\bf{P}_{{\rm{izquierda}}}} &= {\left( {{\bf{A}^{\rm{T}}}\bf{A}} \right)^{ - 1}}{\bf{A}^{\rm{T}}} \end{align} }\]

donde $\bf{P}_{\rm{derecha}}$ es la pseudo inversa que se aplica por la derecha y $\bf{P}_{\rm{izquierda}}$ es la pseudo inversa que se aplica por la izquierda con la finalidad de obtener la identidad al ser multiplicada por la matriz $\bf{A}$.


 

1.2.4.3. Matriz Singular

Una matriz cuadrada ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times n}}$ se dice que es singular si su determinante es cero

 

\[\large{ \begin{align} {\bf{A}} &= \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{11}}}&{{a_{12}}} \end{array}} \right] \nonumber\\ \nonumber\\ {\rm{det}}\left( {\bf{A}} \right) &= {a_{11}}{a_{12}} - {a_{11}}{a_{12}} = 0 \end{align} }\]

 

Una característica de una matriz singular es que ésta no tiene inversa.

 

1.2.4.4. Matriz NO Singular

Una matriz cuadrada ${\bf{A}} = {a_{ij}} \in {\mathbb{R}^{n \times n}}$ se dice que es no singular si su determinante es diferente de cero

\[\large{ \begin{align} {\bf{A}} &= \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{11}}}&{{a_{12}}} \end{array}} \right]\nonumber\\ \nonumber\\ {\rm{det}}\left( {\bf{A}} \right) &= {a_{11}}{a_{12}} - {a_{11}}{a_{12}} \neq 0 \end{align} }\]

 

1.2.5. Menor Principal

Se considera que $d_i$ es el menor principal de una matriz cuadrada ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ si $d_i$ es el determinante que se obtiene a partir de una sub-matriz de $\bf{A}$ formada con las $i$-primeras filas y sus $i$ primeras columnas lo que es lo mismo, eliminando las últimas $n-i$ filas y $n-i$ columnas.

 

Por ejemplo, sea la matriz $\bf{A} \in {\mathbb{R}^{3 \times 3}}$, cuyo rango es $\textrm{rango}{(\bf{A})} = 3$

 

\[\large{ {\bf{A}} = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{\rm{ }}{a_{12}}}&{{\rm{ }}{a_{13}}}\\ {{a_{21}}}&{{\rm{ }}{a_{22}}}&{{\rm{ }}{a_{23}}}\\ {{a_{31}}}&{{\rm{ }}{a_{32}}}&{{\rm{ }}{a_{33}}} \end{array}} \right] }\]

 

entonces se tienen $n$ posibles menores principales definidos como

 

\[\large{ \begin{align} {d_1} &= \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}} \end{array}} \right] = {a_{11}}\\ \nonumber\\ {d_2} &= \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right] = {a_{11}}{a_{22}} - {a_{12}}{a_{21}}\\ \nonumber\\ {d_3} &= \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right] = \begin{array}{*{20}{c}} \:\: a_{11} a_{22} a_{33} - a_{11} a_{23} a_{32} \\ - a_{12} a_{21} a_{33} + a_{12} a_{23} a_{31} \\ + a_{13} a_{21} a_{32} - a_{13} a_{22} a_{31} \end{array} \end{align} }\]

 

 

1.2.5.1. Teorema de Sylvester

En función de los menores principales se obtienen las condiciones necesarias y suficientes para clasificar matrices dentro de una representación en forma cuadrática real según el criterio de Sylvester.

Se dice que una matriz simétrica ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ y un vector ${\bf{x}} \in {\mathbb{R}^n}$ tienen una forma cuadrática si

 

\[\large{ {{\bf{x}}^{\rm{T}}}{\bf{Ax}} = {\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right]^{\rm{T}}}\left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}& \ldots &{{a_{2n}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \ldots &{{a_{nn}}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ \vdots \\ {{x_n}} \end{array}} \right] }\]

 

donde ${{\bf{x}}^{\rm{T}}}{\bf{Ax}} \in \mathbb{R}$.

 

1.2.5.1.1. Teorema de Sylvester Matriz Positiva Definida $\bf{A} > 0$

El teorema de Sylvester establece que la forma cuadrática $\bf{x}^{\mathrm{T}} \bf{A} \bf{x}$ es positiva definida si los $n$ menores principales de $\bf{A}$ son positivos

 

\[\large{ \begin{align} \det \left[ {{a_{11}}} \right] &> 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right] &> 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right] &> 0 \end{align} }\]

 

por lo tanto $\bf{x}^{\mathrm{T}} \bf{A} \bf{x} > 0$.

 

1.2.5.1.2. Teorema de Sylvester Matriz Positiva Semidefinida $\bf{A} \geq 0$

El teorema de Sylvester establece que la forma cuadrática $\bf{x}^{\mathrm{T}} \bf{A} \bf{x}$ es positiva semidefinida si los $n$ menores principales de $\bf{A}$ son

 

\[\large{ \begin{align} \det \left[ {{a_{11}}} \right] &\ge 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right] &\ge 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right] &\ge 0 \end{align} }\]

 

por lo tanto $\bf{x}^{\mathrm{T}} \bf{A} \bf{x} \geq 0$.

 

1.2.5.1.3. Teorema de Sylvester Matriz Negativa Definida $\bf{A} < 0$

El teorema de Sylvester establece que la forma cuadrática $\bf{x}^{\mathrm{T}} \bf{A} \bf{x}$ es negativa definida si los $n$ menores principales de $\bf{A}$ son

 

\[\large{ \begin{align} \det \left[ {{a_{11}}} \right] &< 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right] &> 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right] &< 0 \end{align} }\]

 

por lo tanto $\bf{x}^{\mathrm{T}} \bf{A} \bf{x} < 0$.

 

1.2.5.1.4. Teorema de Sylvester Matriz Negativa Semidefinida $\bf{A} \leq 0$

El teorema de Sylvester establece que la forma cuadrática $\bf{x}^{\mathrm{T}} \bf{A} \bf{x}$ es negativa semidefinida si los $n$ menores principales de $\bf{A}$ son

 

\[\large{ \begin{align} \det \left[ {{a_{11}}} \right] &\le 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right] &\ge 0\\ \nonumber\\ \det \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right] &\le 0 \end{align} }\]

 

por lo tanto $\bf{x}^{\mathrm{T}} \bf{A} \bf{x} \leq 0$.

 

Observación

Es importante poder determinar el tipo de matriz según el Teorema de Sylvester ya que esta información se requiere cuando se realiza el análisis de estabilidad según la Teoría de Lyapunov.

 

Observación

Cualquier matriz simétrica y definida positiva $\bf{A} = \bf{A}^{\mathrm{T}} > \bf{O}$ es no singular; por tanto su inversa $\bf{A}^{-1}$ existe. Más aún, $\bf{A} = \bf{A}^{\mathrm{T}} > \bf{O}$ si y sólo si $\bf{A}^{-1} = \left( \bf{A}^{-1} \right)^{\mathrm{T}} > \bf{O}$.

 

Observación

La suma de dos matrices definidas positivas también resulta en una matriz definida positiva. 

 

1.2.5.2. Valores propios

Para cada matriz cuadrada ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ existen $n$ valores propios (generalmente números complejos) denotados por $\lambda_1 \{ \bf{A} \}, \lambda_2 \{ \bf{A} \}, \ldots, \lambda_n \{ \bf{A} \}$. Así los valores propios de la matriz ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ satisfacen:

 

\[\large{ \det [{\lambda _i}\{ \bf{A} \} {\bf{I}} - {\bf{A}}] = 0,\quad \rm{para} \quad i = 1,2, \ldots ,n }\]

 

donde ${\bf{I}} \in {\mathbb{R}^{n \times n}}$ es la matriz identidad.

 

Para el caso de una matriz simétrica ${\bf{A}} = {{\bf{A}}^{\rm{T}}} \in {\mathbb{R}^{n \times n}}$ sus valores propios son tales que:

 

  • $\lambda_1 \{ \bf{A} \}, \lambda_2 \{ \bf{A} \}, \ldots, \lambda_n \{ \bf{A} \}$ son números reales.

 

  • Denotando el valor propio máximo de $\bf{A}$ por $\lambda_{\max} \{ \bf{A} \}$ y el valor propios mínimo de $\bf{A}$ por $\lambda_{\min}\{ \bf{A} \}$, el teorema de Rayleigh-Ritz establece que para todo ${\bf{x}} \in {\mathbb{R}^{n \times 1}}$ se tiene:

\[\large{ {\lambda _{\max }}\{ {\bf{A}}\} {\bf{x}}{^2} \ge {{\bf{x}}^{\rm{T}}}{\bf{Ax}} \ge {\lambda _{\min }}\{ {\bf{A}}\} {\bf{x}}{^2} }\]

 

Teorema de Rayleigh-Ritz 

este teorema establece que 

\[\large{ {\lambda _{\min }}\left\{ {\bf{A}} \right\}{\left\| {\bf{x}} \right\|^2} \le {{\bf{x}}^{\rm{T}}}{\bf{Ax}} \le {\lambda _{\max }}\left\{ {\bf{A}} \right\}{\left\| {\bf{x}} \right\|^2} \: \forall {\bf{x}} \in {\mathbb{R}^n} }\] donde los valores propios máximos y mínimo de ${\bf{A}}$ están denotados por $\lambda_{\max } \left\{ {\bf{A}} \right\}$ y $\lambda _{\min}\left\{ {\bf{A}} \right\}$, respectivamente.

 

Una matriz cuadrada ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ es definida positiva si y sólo si los valores propios de $\bf{A} + \bf{A}^{\mathrm{T}}$ son positivos, es decir, $\lambda_i \{ \bf{A} + \bf{A}^{\mathrm{T}} \} > 0$  para $i = 1, 2, \ldots, n$.

 

\[\normalsize{ \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right] + \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{21}}}&{{a_{31}}}\\ {{a_{12}}}&{{a_{22}}}&{{a_{32}}}\\ {{a_{13}}}&{{a_{23}}}&{{a_{33}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {2{a_{11}}}&{{a_{12}} + {a_{21}}}&{{a_{13}} + {a_{31}}}\\ {{a_{12}} + {a_{21}}}&{2{a_{22}}}&{{a_{23}} + {a_{32}}}\\ {{a_{13}} + {a_{31}}}&{{a_{23}} + {a_{32}}}&{2{a_{33}}} \end{array}} \right] }\]

 

Más aún, una matriz simétrica ${\bf{A}} = {{\bf{A}}^{\rm{T}}} \in {\mathbb{R}^{n \times n}}$ es definida positiva si y sólo si $\lambda_i \{ \bf{A} \} > 0$ para $i = 1, 2, \ldots, n$.

 

\[\large{ \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{12}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{13}}}&{{a_{23}}}&{{a_{33}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{12}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{13}}}&{{a_{23}}}&{{a_{33}}} \end{array}} \right] }\]

 

1.2.5.3. Norma Espectral

La norma espectral $\| \bf{A} \|$ de una matriz ${\bf{A}} \in {\mathbb{R}^{n \times n}}$ se define como:

 

\[\large{ {\bf{A}} = \sqrt {{\lambda _{\max }}\{ {{\bf{A}}^{\rm{T}}}{\bf{A}}\} } }\]

 

donde $\lambda_{\max} \{ \bf{A}^{\mathrm{T}}\bf{A} \}$ denota el valor propio máximo de la matriz simétrica ${{\bf{A}}^{\rm{T}}}{\bf{A}} \in {\mathbb{R}^{n \times n}}$.

 

En el caso particular de matrices simétricas ${\bf{A}} = {{\bf{A}}^{\rm{T}}} \in {\mathbb{R}^{n \times n}}$, se tiene que:

 

  • $\| \bf{A} \| = \max_i |\lambda_i \{ \bf{A} \}|$

 

  • $\| \bf{A}^{-1} \| = \dfrac{1}{\min_i |\lambda_i \{ \bf{A} \}|}$

 

En las expresiones anteriores el valor absoluto resulta redundante si $\bf{A}$ es simétrica y definida positiva: ${\bf{A}} = {{\bf{A}}^{\rm{T}}} > {\bf{O}}$.


1.2.5.3.1. Propiedades de la Norma Espectral

La norma espectral satisface las siguientes propiedades

P1. $\| \bf{A} \| = \bf{O}$ si y sólo si ${\bf{A}} = {\bf{O}} \in {\mathbb{R}^{n \times m}}$.


P2. $\| \bf{A} \| > \bf{O}$, para todo ${\bf{A}} \in {\mathbb{R}^{n \times m}}$ con ${\bf{A}} \ne {\bf{O}} \in {\mathbb{R}^{n \times m}}$.


P3. $\| \bf{A} + \bf{B} \| \leq \| \bf{A} \| + \| \bf{B} \|$, para todo ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times m}}$.


P4. $\| \alpha \bf{A} \| = | \alpha | \| \bf{A} \|$, para todo $\alpha \in \mathbb{R}$ y ${\bf{A}} \in {\mathbb{R}^{n \times m}}$.


P5. $\| \bf{A}^{\mathrm{T}} \bf{B} \| \leq \| \bf{A} \| \| \bf{B} \|$, para todo ${\bf{A}},{\bf{B}} \in {\mathbb{R}^{n \times m}}$.


Considérese la matriz ${\bf{A}} \in {\mathbb{R}^{n \times m}}$ y el vector ${\bf{x}} \in {\mathbb{R}^m}$ . La norma euclidiana del vector $\bf{A} \bf{x}$ satisface:

 

\[\large{ \left\| {{\bf{Ax}}} \right\| \le \left\| {\bf{A}} \right\|\left\| {\bf{x}} \right\| }\]

 

donde $\| \bf{A} \|$ denota la norma espectral de la matriz $\bf{A}$, mientras que $\| \bf{x} \|$ denota la norma euclidiana del vector $\bf{x}$.

 

Más aún, considerando el vector ${\bf{y}} \in {\mathbb{R}^n}$, el valor absoluto de $\bf{y}^{\mathrm{T}}\bf{A} \bf{x}$ satisface:

 

\[\large{ \left| {{{\bf{y}}^{\rm{T}}}{\bf{Ax}}} \right| \le \left\| {\bf{A}} \right\|\left\| {\bf{y}} \right\|\left\| {\bf{x}} \right\| }\]

 

1.2.5.4. Derivada parcial

En cálculo diferencial, la derivada parcial de una función de diversas variables, es la derivada respecto a cada una de esas variables manteniendo las otras como constantes. La derivada parcial es útil en el cálculo vectorial, en la geometría diferencial, en las funciones analíticas, en la física, en las matemáticas, etcétera. Al realizar esta derivada se obtiene la expresión que permite calcular la pendiente de la recta tangente a dicha función ${\bf{A}}$ en un punto dado. Esta recta es paralela al plano formado por el eje de la incógnita respecto a la cual se ha hecho la derivada con el eje que representa los valores de la función.

 

1.2.5.4.1. Matriz Jacobiana

La matriz jacobiana es una matriz formada por las derivadas parciales de primer orden de una función $f$, siendo $f$ una función diferenciable de un campo vectorial ${\mathbb{R}^{n}}$ a otro campo vectorial ${\mathbb{R}^{m}}$ tal que $f({\bf{x}}): {\mathbb{R}^{n}} \to {\mathbb{R}^{m}}$ con ${\bf{x}} \in {\mathbb{R}^{n}}$. La matriz Jacobiana representada por ${\bf{J}} ({\cdot}) \in {\mathbb{R}^{m \times n}}$, donde $({\cdot})$ es el argumento, se define como:

\[\large{ {\bf{J}} \left( {\bf{x}} \right) = \dfrac{{\partial f\left( {\bf{x}} \right)}}{{\partial {\bf{x}}}} = \left[ {\begin{array}{*{20}{c}} {\dfrac{{\partial {f_1}}}{{\partial {x_1}}}}&{\dfrac{{\partial {f_1}}}{{\partial {x_2}}}}& \cdots &{\dfrac{{\partial {f_1}}}{{\partial {x_n}}}}\\ {\dfrac{{\partial {f_2}}}{{\partial {x_1}}}}&{\dfrac{{\partial {f_2}}}{{\partial {x_2}}}}& \cdots &{\dfrac{{\partial {f_2}}}{{\partial {x_n}}}}\\ \vdots & \vdots & \ddots & \vdots \\ {\dfrac{{\partial {f_m}}}{{\partial {x_1}}}}&{\dfrac{{\partial {f_m}}}{{\partial {x_2}}}}& \cdots &{\dfrac{{\partial {f_m}}}{{\partial {x_n}}}} \end{array}} \right] }\]

 

1.2.5.5.2. Gradiente

El gradiente es un campo vectorial cuyas componentes son las derivadas parciales de primer orden de una función escalar

\[\large{ \nabla V\left( {\bf{x}} \right) = \dfrac{{\partial V\left( {\bf{x}} \right)}}{{\partial {\bf{x}}}} = \left[ {\begin{array}{*{20}{c}} {\dfrac{{\partial V\left( {\bf{x}} \right)}}{{\partial {x_1}}}}\\ {\dfrac{{\partial V\left( {\bf{x}} \right)}}{{\partial {x_2}}}}\\ \vdots \\ {\dfrac{{\partial V\left( {\bf{x}} \right)}}{{\partial {x_n}}}} \end{array}} \right] }\]

El gradiente se representa por el operador $\nabla V({\bf{x}}): {\mathbb{R}} \to {\mathbb{R}^{n}}$


Observación
La matriz Jacobiana se puede representar en términos del gradiente de la siguiente forma:

\[\normalsize{{\bf{J}} ({\bf{x}}) = \left[ {\begin{array}{*{20}{c}} {\nabla {f_1}{{\left( {\bf{x}} \right)}^{\rm{T}}}}\\ {\nabla {f_2}{{\left( {\bf{x}} \right)}^{\rm{T}}}}\\ \vdots \\ {\nabla {f_n}{{\left( {\bf{x}} \right)}^{\rm{T}}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\dfrac{{\partial {f_1}}}{{\partial {x_1}}}}&{\dfrac{{\partial {f_1}}}{{\partial {x_2}}}}& \cdots &{\dfrac{{\partial {f_1}}}{{\partial {x_n}}}}\\ {\dfrac{{\partial {f_2}}}{{\partial {x_1}}}}&{\dfrac{{\partial {f_2}}}{{\partial {x_2}}}}& \cdots &{\dfrac{{\partial {f_2}}}{{\partial {x_n}}}}\\ \vdots & \vdots & \ddots & \vdots \\ {\dfrac{{\partial {f_m}}}{{\partial {x_1}}}}&{\dfrac{{\partial {f_m}}}{{\partial {x_2}}}}& \cdots &{\dfrac{{\partial {f_m}}}{{\partial {x_n}}}} \end{array}} \right]}\] 

 

1.2.5.5.3. Derivada temporal de una función cuadrática

La derivada temporal de una función cuadrática $V\left( {\bf{x}} \right) = {{{\bf{x}}^{\rm{T}}}{\bf{Ax}}}$ se obtiene de la siguiente forma:

\[\large{ \begin{align} \dot V\left( {\bf{x}} \right) = \dfrac{\mathrm{d}}{\mathrm{dt}} \Big( V\left( {\bf{x}} \right) \Big) &= \dfrac{\mathrm{d}}{\mathrm{dt}} \Big( {{{\bf{x}}^{\rm{T}}}{\bf{Ax}}} \Big)\nonumber\\ \nonumber\\ &= \dfrac{\mathrm{d}}{\mathrm{dt}} \Big( {\bf{x}}^{\rm{T}} \Big) {\bf{Ax}} + {{\bf{x}}^{\rm{T}}} \dfrac{\mathrm{d}}{{\mathrm{dt}}} \Big( {\bf{Ax}} \Big) + {{\bf{x}}^{\rm{T}}}{\bf{A}} \dfrac{\mathrm{d}}{\mathrm{dt}} \Big( {\bf{x}} \Big) \nonumber\\ \nonumber\\ &= {{{\bf{\dot x}}}^{\rm{T}}}{\bf{Ax}} + {{\bf{x}}^{\rm{T}}}{\bf{\dot Ax}} + {{\bf{x}}^{\rm{T}}}{\bf{A\dot x}} \nonumber\\ \nonumber\\ &= 2{{\bf{x}}^{\rm{T}}}{\bf{A\dot x}} + {{\bf{x}}^{\rm{T}}}{\bf{\dot Ax}} \end{align} }\]

 

donde ${\bf{A}} = {\bf{A}}^{\mathrm{T}} \in {\mathbb{R}^{n \times n}}$ y ${\bf{x}} \in {\mathbb{R}^{n}}$.

 

Si la matriz ${\bf{A}}$ es constante entoces se tiene

\[\large{ \dot V\left( {\bf{x}} \right) = \dfrac{\mathrm{d}}{\mathrm{dt}} \Big( V\left( {\bf{x}} \right) \Big) = 2{{\bf{x}}^{\rm{T}}}{\bf{A\dot x}} + \underline{{{\bf{x}}^{\rm{T}}}{\bf{\dot Ax}}}_{0} = 2{{\bf{x}}^{\rm{T}}}{\bf{A\dot x}} }\]

 

1.3. Exámenes y Tareas

T. Realizar la transcripción completa del Blog en un reporte en LaTeX y subir el archivo PDF a Google Classroom

T. Realizar todos los códigos en Matlab y subir los archivos a Google Classroom

E. Contestar el Examen que se encuentra en Google Classroom 

Comentarios

Cursos

Clase 3 - Transformada de Laplace

Clase 2 - Números Complejos

Clase 6 - Diagrama a bloques

Clase 4 - Transformada Inversa de Laplace

Clase 5 - Función de Transferencia

Curso