Este artículo está orientado a proporcionar un tratamiento riguroso y abstracto del concepto de espacio vectorial. Para una introducción más accesible al concepto, véase Vector
Representación artística de un espacio vectorial.
En álgebra lineal , un espacio vectorial (o también llamado espacio lineal ) es una estructura algebraica creada a partir de un conjunto no vacío , una operación interna (llamada suma , definida para los elementos del conjunto) y una operación externa (llamada producto por un escalar , definida entre dicho conjunto y otro conjunto, con estructura de cuerpo ) que satisface 8 propiedades fundamentales.
A los elementos de un espacio vectorial se les llama vectores y a los elementos del cuerpo se les conoce como escalares
Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII : geometría analítica , matrices y sistemas de ecuaciones lineales .
Los espacios vectoriales se derivan de la geometría afín a través de la introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la vinculación de las soluciones de una ecuación con dos variables a la determinación de una curva plana.[ nota 1] Para lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores de los vectores.[ nota 2] Este trabajo hizo uso del concepto de coordenadas baricéntricas de August Ferdinand Möbius de 1827.[ nota 3]
La primera formulación moderna y axiomática se debe a Giuseppe Peano , a finales del siglo XIX . Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional , principalmente de espacios de funciones . Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia . Esto se hizo dotando a los espacios vectoriales de una adecuada topología , permitiendo tener en cuenta cuestiones de proximidad y continuidad . Estos espacios vectoriales topológicos , en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.
El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores se reconsideraron con la presentación de los números complejos de Argand y Hamilton y la creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre de vector).[ nota 4] Son elementos de R 2 y R 4 ; el tratamiento mediante combinaciones lineales se remonta a Laguerre en 1867, quien también definió los sistemas de ecuaciones lineales .
En 1857, Cayley introdujo la notación matricial que permite una armonización y simplificación de las aplicaciones lineales . Casi al mismo tiempo, Grassmann estudió el cálculo baricéntrico iniciado por Möbius. Previó conjuntos de objetos abstractos dotados de operaciones.[ nota 5] En su trabajo, los conceptos de independencia lineal y dimensión , así como de producto escalar están presentes. En realidad el trabajo de Grassmann de 1844 supera el marco de los espacios vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo que hoy en día se llaman álgebras . El matemático italiano Peano dio la primera definición moderna de espacios vectoriales y aplicaciones lineales en 1888.[ nota 6]
Un desarrollo importante de los espacios vectoriales se debe a la construcción de los espacios de funciones por Henri Lebesgue . Esto más tarde fue formalizado por Banach en su tesis doctoral de 1920[ nota 7] y por Hilbert . En este momento, el álgebra y el nuevo campo del análisis funcional empezaron a interactuar, en particular con conceptos clave tales como los espacios de funciones p-integrables y los espacios de Hilbert . También en este tiempo, los primeros estudios sobre espacios vectoriales de infinitas dimensiones se realizaron.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería . Se utilizan en métodos como las series de Fourier , que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales . Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores , que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.
Dado un espacio vectorial
V
{\displaystyle V}
sobre un cuerpo
K
{\displaystyle K}
, se distinguen los elementos de
V
{\displaystyle V}
y los de
K
{\displaystyle K}
.
Los elementos de
V
{\displaystyle V}
suelen denotarse por
u
,
v
,
w
{\displaystyle \mathbf {u} ,\mathbf {v} ,\mathbf {w} }
y son llamados vectores .
Dependiendo las fuentes que se consulten, también es común denotarlos por
u
¯
,
v
¯
,
w
¯
{\displaystyle {\bar {u}},{\bar {v}},{\bar {w}}}
y si el texto es de física entonces suelen denotarse por
u
→
,
v
→
,
w
→
{\displaystyle {\vec {u}},{\vec {v}},{\vec {w}}}
Mientras que los elementos de
K
{\displaystyle K}
se denotan como
a
,
b
,
α
,
β
{\displaystyle a,b,\alpha ,\beta }
y son llamados escalares .
Un espacio vectorial sobre un cuerpo
K
{\displaystyle K}
(como el cuerpo de los números reales o los números complejos ) es un conjunto no vacío, digamos
V
{\displaystyle V}
, dotado de dos operaciones para las cuales será cerrado:
Suma
+
:
V
×
V
→
V
(
u
,
v
)
↦
u
+
v
{\displaystyle {\begin{array}{llccl}{\mbox{Suma}}&+:&{V\times V}&\rightarrow &{V}\\&&(\mathbf {u} ,\mathbf {v} )&\mapsto &\mathbf {u} +\mathbf {v} \end{array}}}
operación interna tal que:
u
+
v
=
v
+
u
,
∀
u
,
v
∈
V
{\displaystyle \mathbf {u} +\mathbf {v} =\mathbf {v} +\mathbf {u} ,\quad \forall \;\mathbf {u} ,\mathbf {v} \in V}
u
+
(
v
+
w
)
=
(
u
+
v
)
+
w
,
∀
u
,
v
,
w
∈
V
{\displaystyle \mathbf {u} +(\mathbf {v} +\mathbf {w} )=(\mathbf {u} +\mathbf {v} )+\mathbf {w} ,\quad \forall \;\mathbf {u} ,\mathbf {v} ,\mathbf {w} \in V}
∃
e
∈
V
:
{\displaystyle \exists \;\mathbf {e} \in {}V:}
u
+
e
=
u
,
{\displaystyle \mathbf {u} +\mathbf {e} =\mathbf {u} ,}
∀
u
∈
V
{\displaystyle \forall \;\mathbf {u} \in V}
∀
u
∈
V
,
∃
−
u
∈
V
:
{\displaystyle \forall \;\mathbf {u} \in V,\quad \exists -\mathbf {u} \in {}V:}
u
+
(
−
u
)
=
e
{\displaystyle \mathbf {u} +(-\mathbf {u} )=\mathbf {e} }
Y tenga la operación producto por un escalar:
Producto
⋅
:
K
×
V
→
V
(
a
,
u
)
↦
a
⋅
u
{\displaystyle {\begin{array}{llccl}{\mbox{Producto}}&\cdot {}:&{K\times V}&\rightarrow &{V}\\&&{(a,\mathbf {u} )}&\mapsto &a\cdot \mathbf {u} \end{array}}}
operación externa tal que:
a
⋅
(
b
⋅
u
)
=
(
a
⋅
b
)
⋅
u
,
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot \mathbf {u} )=({\mathit {a}}\cdot {\mathit {b}})\cdot \mathbf {u} ,}
∀
a
,
b
∈
K
,
{\displaystyle \forall \;{\mathit {a}},{\mathit {b}}\in {}K,}
∀
u
∈
V
{\displaystyle \forall \;\mathbf {u} \in V}
∃
e
∈
K
:
{\displaystyle \exists e\in {K}:}
e
⋅
u
=
u
,
{\displaystyle e\cdot \mathbf {u} =\mathbf {u} ,}
∀
u
∈
V
{\displaystyle \forall \;\mathbf {u} \in V}
a
⋅
(
u
+
v
)
=
a
⋅
u
+
a
⋅
v
,
{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {v} )={\mathit {a}}\cdot \mathbf {u} +{\mathit {a}}\cdot \mathbf {v} ,}
∀
a
∈
K
,
{\displaystyle \forall \;{\mathit {a}}\in K,}
∀
u
,
v
∈
V
{\displaystyle \forall \;\mathbf {u} ,\mathbf {v} \in V}
(
a
+
b
)
⋅
u
=
a
⋅
u
+
b
⋅
u
,
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot \mathbf {u} ={\mathit {a}}\cdot \mathbf {u} +{\mathit {b}}\cdot \mathbf {u} ,}
∀
a
,
b
∈
K
,
{\displaystyle \forall {}{\mathit {a}},{\mathit {b}}\in {}K,}
∀
u
∈
V
{\displaystyle \forall \;\mathbf {u} \in V}
La denominación de las dos operaciones no condiciona la definición de espacio vectorial por lo que es habitual encontrar traducciones de obras en las que se utiliza multiplicación para el producto y adición para la suma , usando las distinciones propias de la aritmética.
Para demostrar que un conjunto
V
{\displaystyle V_{}^{}}
es un espacio vectorial:
Lo es si sus dos operaciones, por ejemplo
⊙
(
V
,
V
)
{\displaystyle \odot (V,V)}
y
∗
(
V
,
K
)
,
{\displaystyle \ast (V,K),}
admiten una redefinición del tipo
+
(
V
,
V
)
=
⊙
(
V
,
V
)
{\displaystyle +(V,V)=\odot (V,V)}
y
⋅
(
K
,
V
)
=
∗
(
V
,
K
)
{\displaystyle \cdot (K,V)=\ast (V,K)}
cumpliendo las 8 condiciones exigidas.
Si supiésemos que
V
{\displaystyle V_{}^{}}
es un grupo conmutativo o abeliano respecto la suma ya tendríamos probados los apartados 1, 2, 3 y 4 .
Si supiésemos que el producto es una acción por la izquierda de
V
{\displaystyle V_{}^{}}
tendríamos probados los apartados 5 y 6 .
Si no, se dice lo contrario:
a
v
≠
v
a
{\displaystyle {\mathit {a}}\mathbf {v} \neq \mathbf {v} {\mathit {a}}}
.
Unicidad del vector neutro de la propiedad 3
supongamos que el neutro no es único, es decir, sean
0
1
{\displaystyle \mathbf {0_{1}} }
y
0
2
{\displaystyle \mathbf {0_{2}} }
dos vectores neutros, entonces:
u
+
0
1
=
u
u
+
0
2
=
u
}
⇒
{\displaystyle \left.{\begin{array}{l}\mathbf {u} +\mathbf {0_{1}} =\mathbf {u} \\\mathbf {u} +\mathbf {0_{2}} =\mathbf {u} \end{array}}\right\}\Rightarrow }
u
+
0
1
=
u
+
0
2
⇒
{\displaystyle \mathbf {u} +\mathbf {0_{1}} =\mathbf {u} +\mathbf {0_{2}} \Rightarrow }
0
1
=
0
2
⇒
{\displaystyle \mathbf {0_{1}} =\mathbf {0_{2}} \Rightarrow }
∃
!
0
∈
V
{\displaystyle \exists !\;\mathbf {0} \in V}
Unicidad del vector opuesto de la propiedad 4
supongamos que el opuesto no es único, es decir, sean
−
u
1
{\displaystyle \mathbf {-u_{1}} }
y
−
u
2
{\displaystyle \mathbf {-u_{2}} }
dos vectores opuestos de
u
{\displaystyle \mathbf {u} }
, entonces, como el neutro es único:
u
−
u
1
=
0
u
−
u
2
=
0
}
⇒
{\displaystyle \left.{\begin{array}{l}\mathbf {u} -\mathbf {u_{1}} =\mathbf {0} \\\mathbf {u} -\mathbf {u_{2}} =\mathbf {0} \end{array}}\right\}\Rightarrow }
u
−
u
1
=
u
−
u
2
⇒
{\displaystyle \mathbf {u} -\mathbf {u_{1}} =\mathbf {u} -\mathbf {u_{2}} \Rightarrow }
−
u
1
=
−
u
2
⇒
{\displaystyle -\mathbf {u_{1}} =-\mathbf {u_{2}} \Rightarrow }
∃
!
−
u
∈
V
{\displaystyle \exists !-\mathbf {u} \in V}
Unicidad del elemento
1
{\displaystyle 1_{}^{}}
en el cuerpo
K
{\displaystyle K_{}^{}}
supongamos que 1 no es único, es decir, sean
1
1
{\displaystyle {\mathit {1_{1}}}\;}
y
1
2
{\displaystyle {\mathit {1_{2}}}\;}
dos unidades, entonces:
a
⋅
1
1
=
a
a
⋅
1
2
=
a
}
⇒
{\displaystyle \left.{\begin{array}{l}{\mathit {a}}\cdot {\mathit {1_{1}}}={\mathit {a}}\\{\mathit {a}}\cdot {\mathit {1_{2}}}={\mathit {a}}\end{array}}\right\}\Rightarrow }
a
⋅
1
1
=
a
⋅
1
2
⇒
{\displaystyle {\mathit {a}}\cdot {\mathit {1_{1}}}={\mathit {a}}\cdot {\mathit {1_{2}}}\Rightarrow }
1
1
=
1
2
⇒
{\displaystyle {\mathit {1_{1}}}={\mathit {1_{2}}}\Rightarrow }
∃
!
1
∈
K
{\displaystyle \exists !\;{\mathit {1}}\in K}
Unicidad del elemento inverso en el cuerpo
K
{\displaystyle K_{}^{}}
supongamos que el inverso
a
−
1
{\displaystyle a_{}^{-1}}
de a, no es único, es decir, sean
a
1
−
1
{\displaystyle a_{1}^{-1}}
y
a
2
−
1
{\displaystyle a_{2}^{-1}}
dos opuestos de
a
{\displaystyle a_{}^{}}
, entonces, como el neutro es único:
a
⋅
a
1
−
1
=
1
a
⋅
a
2
−
1
=
1
}
⇒
{\displaystyle \left.{\begin{array}{l}{\mathit {a}}\cdot {\mathit {a_{1}^{-1}}}={\mathit {1}}\\{\mathit {a}}\cdot {\mathit {a_{2}^{-1}}}={\mathit {1}}\end{array}}\right\}\Rightarrow }
a
⋅
a
1
−
1
=
a
⋅
a
2
−
1
⇒
{\displaystyle {\mathit {a}}\cdot {\mathit {a_{1}^{-1}}}={\mathit {a}}\cdot {\mathit {a_{2}^{-1}}}\Rightarrow }
a
1
−
1
=
a
2
−
1
⇒
{\displaystyle {\mathit {a_{1}^{-1}}}={\mathit {a_{2}^{-1}}}\Rightarrow }
∃
!
a
−
1
∈
K
{\displaystyle \exists !{\mathit {a^{-1}}}\in K}
Producto de un escalar por el vector neutro
a
⋅
u
=
{\displaystyle {\mathit {a}}\cdot \mathbf {u} =}
a
⋅
(
u
+
0
)
=
{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {0} )=}
a
⋅
u
+
a
⋅
0
⇒
{\displaystyle {\mathit {a}}\cdot \mathbf {u} +{\mathit {a}}\cdot \mathbf {0} \Rightarrow }
a
⋅
0
=
0
{\displaystyle {\mathit {a}}\cdot \mathbf {0} =\mathbf {0} }
Producto del escalar 0 por un vector
u
=
{\displaystyle \mathbf {u} =}
1
⋅
u
=
{\displaystyle {\mathit {1}}\cdot \mathbf {u} =}
(
1
+
0
)
⋅
u
=
{\displaystyle ({\mathit {1}}+{\mathit {0}})\cdot \mathbf {u} =}
1
⋅
u
+
0
⋅
u
=
{\displaystyle {\mathit {1}}\cdot \mathbf {u} +{\mathit {0}}\cdot \mathbf {u} =}
u
+
0
⋅
u
⇒
{\displaystyle \mathbf {u} +{\mathit {0}}\cdot \mathbf {u} \Rightarrow }
0
⋅
u
=
{\displaystyle {\mathit {0}}\cdot \mathbf {u} =}
0
{\displaystyle \mathbf {0} }
Si
a
⋅
u
=
0
⇒
{\displaystyle {\mathit {a}}\cdot \mathbf {u} =\mathbf {0} \Rightarrow }
a
=
0
∨
u
=
0
.
{\displaystyle {\mathit {a}}={\mathit {0}}\quad \lor \quad \mathbf {u} =\mathbf {0} .}
Si
a
=
0
,
{\displaystyle a_{}^{}=0,}
es cierto.
Si
a
≠
0
,
{\displaystyle a\neq 0,}
entonces:
∃
!
a
−
1
∈
K
:
{\displaystyle \exists !\;a^{-1}\in K:}
a
−
1
a
=
1
⇒
{\displaystyle a^{-1}a=1\Rightarrow }
u
=
{\displaystyle u=}
1
u
=
{\displaystyle 1u=}
(
a
−
1
a
)
u
=
{\displaystyle (a^{-1}a)u=}
a
−
1
(
a
u
)
=
{\displaystyle a^{-1}(au)=}
a
−
1
0
=
0
⇒
{\displaystyle a^{-1}0=0\Rightarrow }
u
=
0.
{\displaystyle u_{}^{}=0.}
Notación
−
a
u
=
−
(
a
u
)
{\displaystyle -au=-(au)\,}
.
Observación
−
a
u
=
(
−
a
)
u
=
a
(
−
u
)
{\displaystyle -au=(-a)u=a(-u)\,}
Si
a
u
+
a
(
−
u
)
=
a
(
u
−
u
)
=
a
0
=
0
⇒
{\displaystyle au+a(-u)=a(u-u)=a0=0\Rightarrow }
a
(
−
u
)
=
−
a
u
{\displaystyle a(-u)=-au\,}
Si
a
u
+
(
−
a
)
u
=
(
a
−
a
)
u
=
0
u
=
0
⇒
{\displaystyle au+(-a)u=(a-a)u=0u=0\Rightarrow }
(
−
a
)
u
=
−
a
u
{\displaystyle (-a)u=-au\,}
Primer ejemplo con demostración[ editar ]
Se quiere probar que
R
2
{\displaystyle \mathbb {R} ^{2}}
es un espacio vectorial sobre
R
{\displaystyle \mathbb {R} }
Si
R
2
{\displaystyle \mathbb {R} ^{2}}
juega el papel de
V
{\displaystyle V\;}
y
R
{\displaystyle \mathbb {R} }
el de
K
{\displaystyle K\;}
:
Los elementos:
u
∈
V
=
R
2
=
R
×
R
{\displaystyle \mathbf {u} \in V=\mathbb {R} ^{2}=\mathbb {R} \times {}\mathbb {R} }
son, de forma genérica:
u
=
(
u
x
,
u
y
)
{\displaystyle \mathbf {u} =(u_{x},u_{y})}
es decir, pares de números reales. Por claridad se conserva la denominación del vector, en este caso u , en sus coordenadas, añadiendo el subíndice x o y para denominar su componente en el eje x o y respectivamente
En
V
{\displaystyle V\;}
se define la operación suma:
+
:
V
×
V
⟶
V
(
u
,
v
)
↦
w
=
u
+
v
{\displaystyle {\begin{array}{ccll}+:&{V\times {}V}&\longrightarrow {}&{V}\\&(\mathbf {u} ,\mathbf {v} )&\mapsto &\mathbf {w} =\mathbf {u} +\mathbf {v} \end{array}}}
donde:
u
=
(
u
x
,
u
y
)
{\displaystyle \mathbf {u} =(u_{x},u_{y})}
v
=
(
v
x
,
v
y
)
{\displaystyle \mathbf {v} =(v_{x},v_{y})}
w
=
(
w
x
,
w
y
)
{\displaystyle \mathbf {w} =(w_{x},w_{y})}
y la suma de u y v sería:
u
+
v
=
(
u
x
,
u
y
)
+
(
v
x
,
v
y
)
=
(
u
x
+
v
x
,
u
y
+
v
y
)
=
(
w
x
,
w
y
)
=
w
{\displaystyle \mathbf {u} +\mathbf {v} =(u_{x},u_{y})+(v_{x},v_{y})=(u_{x}+v_{x},u_{y}+v_{y})=(w_{x},w_{y})=\mathbf {w} }
donde:
w
x
=
u
x
+
v
x
w
y
=
u
y
+
v
y
{\displaystyle {\begin{array}{l}w_{x}=u_{x}+v_{x}\\w_{y}=u_{y}+v_{y}\end{array}}}
esto implica que la suma de vectores es interna y bien definida.
La operación interna suma tiene las propiedades:
1) La propiedad conmutativa, es decir:
u
+
v
=
v
+
u
,
∀
u
,
v
∈
V
{\displaystyle \mathbf {u} +\mathbf {v} =\mathbf {v} +\mathbf {u} ,\quad \forall {}\mathbf {u} ,\mathbf {v} \in {}V}
u
+
v
=
v
+
u
{\displaystyle \mathbf {u} +\mathbf {v} =\mathbf {v} +\mathbf {u} }
(
u
x
,
u
y
)
+
(
v
x
,
v
y
)
=
v
+
u
{\displaystyle (u_{x},u_{y})+(v_{x},v_{y})=\mathbf {v} +\mathbf {u} }
(
u
x
+
v
x
,
u
y
+
v
y
)
=
v
+
u
{\displaystyle (u_{x}+v_{x},u_{y}+v_{y})=\mathbf {v} +\mathbf {u} }
(
v
x
+
u
x
,
v
y
+
u
y
)
=
v
+
u
{\displaystyle (v_{x}+u_{x},v_{y}+u_{y})=\mathbf {v} +\mathbf {u} }
(
v
x
,
v
y
)
+
(
u
x
,
u
y
)
=
v
+
u
{\displaystyle (v_{x},v_{y})+(u_{x},u_{y})=\mathbf {v} +\mathbf {u} }
v
+
u
=
v
+
u
{\displaystyle \mathbf {v} +\mathbf {u} =\mathbf {v} +\mathbf {u} }
2) La propiedad asociativa:
(
u
+
v
)
+
w
=
u
+
(
v
+
w
)
{\displaystyle (\mathbf {u} +\mathbf {v} )+\mathbf {w} =\mathbf {u} +(\mathbf {v} +\mathbf {w} )}
(
(
u
x
,
u
y
)
+
(
v
x
,
v
y
)
)
+
(
w
x
,
w
y
)
=
(
u
x
,
u
y
)
+
(
(
v
x
,
v
y
)
+
(
w
x
,
w
y
)
)
{\displaystyle {\Big (}(u_{x},u_{y})+(v_{x},v_{y}){\Big )}+(w_{x},w_{y})=(u_{x},u_{y})+{\Big (}(v_{x},v_{y})+(w_{x},w_{y}){\Big )}}
(
u
x
+
v
x
,
u
y
+
v
y
)
+
(
w
x
,
w
y
)
=
(
u
x
,
u
y
)
+
(
v
x
+
w
x
,
v
y
+
w
y
)
{\displaystyle (u_{x}+v_{x},u_{y}+v_{y})+(w_{x},w_{y})=(u_{x},u_{y})+(v_{x}+w_{x},v_{y}+w_{y})\;}
(
u
x
+
v
x
+
w
x
,
u
y
+
v
y
+
w
y
)
=
(
u
x
+
v
x
+
w
x
,
u
y
+
v
y
+
w
y
)
{\displaystyle (u_{x}+v_{x}+w_{x},u_{y}+v_{y}+w_{y})=(u_{x}+v_{x}+w_{x},u_{y}+v_{y}+w_{y})\;}
3) tiene elemento neutro
0
{\displaystyle \mathbf {0} }
:
u
+
0
=
u
{\displaystyle \mathbf {u} +\mathbf {0} =\mathbf {u} }
(
u
x
,
u
y
)
+
(
0
,
0
)
=
(
u
x
+
0
,
u
y
+
0
)
=
(
u
x
,
u
y
)
{\displaystyle (u_{x},u_{y})+(0,0)=(u_{x}+0,u_{y}+0)=(u_{x},u_{y})\;}
4) tenga elemento opuesto:
u
=
(
u
x
,
u
y
)
{\displaystyle \mathbf {u} =(u_{x},u_{y})}
−
u
=
(
−
u
x
,
−
u
y
)
{\displaystyle \mathbf {-u} =(-u_{x},-u_{y})}
u
+
(
−
u
)
=
(
u
x
,
u
y
)
+
(
−
u
x
,
−
u
y
)
=
(
u
x
−
u
x
,
u
y
−
u
y
)
=
(
0
,
0
)
=
0
{\displaystyle \mathbf {u} +(\mathbf {-u} )=(u_{x},u_{y})+(-u_{x},-u_{y})=(u_{x}-u_{x},u_{y}-u_{y})=(0,0)=\mathbf {0} }
La operación producto por un escalar:
⋅
:
K
×
V
⟶
V
(
a
,
u
)
↦
v
=
a
⋅
u
{\displaystyle {\begin{array}{ccll}\cdot :&K\times V&\longrightarrow &V\\&({\mathit {a}},\mathbf {u} )&\mapsto &\mathbf {v} ={\mathit {a}}\cdot \mathbf {u} \end{array}}}
El producto de a y u será:
a
⋅
u
=
a
⋅
(
u
x
,
u
y
)
=
(
a
⋅
u
x
,
a
⋅
u
y
)
=
(
v
x
,
v
y
)
=
v
{\displaystyle {\mathit {a}}\cdot \mathbf {u} =a\cdot (u_{x},u_{y})=(a\cdot u_{x},a\cdot u_{y})=(v_{x},v_{y})=\mathbf {v} }
donde:
v
x
=
a
⋅
u
x
v
y
=
a
⋅
u
y
{\displaystyle {\begin{array}{l}v_{x}=a\cdot u_{x}\\v_{y}=a\cdot u_{y}\end{array}}}
esto implica que la multiplicación de vector por escalar es externa y aun así está bien definida.
5) tenga la propiedad asociativa:
a
⋅
(
b
⋅
u
)
=
(
a
⋅
b
)
⋅
u
,
∀
a
,
b
∈
K
,
∀
u
∈
V
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot \mathbf {u} )=({\mathit {a}}\cdot {\mathit {b}})\cdot \mathbf {u} ,\quad \forall {}{\mathit {a}},{\mathit {b}}\in {}K,\quad \forall {}\mathbf {u} \in {}V}
Esto es:
a
⋅
(
b
⋅
u
)
=
(
a
⋅
b
)
⋅
u
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot \mathbf {u} )=({\mathit {a}}\cdot {\mathit {b}})\cdot \mathbf {u} }
a
⋅
(
b
⋅
(
u
x
,
u
y
)
)
=
(
a
⋅
b
)
⋅
(
u
x
,
u
y
)
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot (u_{x},u_{y}))=({\mathit {a}}\cdot {\mathit {b}})\cdot (u_{x},u_{y})}
a
⋅
(
b
⋅
u
x
,
b
⋅
u
y
)
=
(
a
⋅
b
)
⋅
(
u
x
,
u
y
)
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot u_{x},{\mathit {b}}\cdot u_{y})=({\mathit {a}}\cdot {\mathit {b}})\cdot (u_{x},u_{y})}
(
a
⋅
b
⋅
u
x
,
a
⋅
b
⋅
u
y
)
=
(
a
⋅
b
⋅
u
x
,
a
⋅
b
⋅
u
y
)
{\displaystyle ({\mathit {a}}\cdot {\mathit {b}}\cdot u_{x},{\mathit {a}}\cdot {\mathit {b}}\cdot u_{y})=({\mathit {a}}\cdot {\mathit {b}}\cdot u_{x},{\mathit {a}}\cdot {\mathit {b}}\cdot u_{y})}
6)
1
∈
R
{\displaystyle {\mathit {1}}\in {}R}
sea elemento neutro en el producto:
1
⋅
u
=
u
,
∀
u
∈
V
{\displaystyle {\mathit {1}}\cdot \mathbf {u} =\mathbf {u} ,\quad \forall {}\mathbf {u} \in {}V}
Que resulta:
1
⋅
u
=
u
{\displaystyle {\mathit {1}}\cdot \mathbf {u} =\mathbf {u} }
1
⋅
(
u
x
,
u
y
)
=
u
{\displaystyle {\mathit {1}}\cdot (u_{x},u_{y})=\mathbf {u} }
(
1
⋅
u
x
,
1
⋅
u
y
)
=
u
{\displaystyle ({\mathit {1}}\cdot u_{x},{\mathit {1}}\cdot u_{y})=\mathbf {u} }
(
u
x
,
u
y
)
=
u
{\displaystyle (u_{x},u_{y})=\mathbf {u} }
Que tiene la propiedad distributiva:
7) distributiva por la izquierda:
a
⋅
(
u
+
v
)
=
a
⋅
u
+
a
⋅
v
,
∀
a
∈
R
,
∀
u
,
v
∈
V
{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {v} )={\mathit {a}}\cdot \mathbf {u} +{\mathit {a}}\cdot \mathbf {v} ,\quad \forall {}{\mathit {a}}\in {}R,\quad \forall {}\mathbf {u} ,\mathbf {v} \in {}V}
En este caso tenemos:
a
⋅
(
u
+
v
)
=
a
⋅
u
+
a
⋅
v
{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {v} )={\mathit {a}}\cdot \mathbf {u} +{\mathit {a}}\cdot \mathbf {v} }
a
⋅
(
(
u
x
,
u
y
)
+
(
v
x
,
v
y
)
)
=
a
⋅
(
u
x
,
u
y
)
+
a
⋅
(
v
x
,
v
y
)
{\displaystyle {\mathit {a}}\cdot ((u_{x},u_{y})+(v_{x},v_{y}))={\mathit {a}}\cdot (u_{x},u_{y})+{\mathit {a}}\cdot (v_{x},v_{y})}
a
⋅
(
u
x
+
v
x
,
u
y
+
v
y
)
=
(
a
⋅
u
x
,
a
⋅
u
y
)
+
(
a
⋅
v
x
,
a
⋅
v
y
)
{\displaystyle {\mathit {a}}\cdot (u_{x}+v_{x},u_{y}+v_{y})=({\mathit {a}}\cdot u_{x},{\mathit {a}}\cdot u_{y})+({\mathit {a}}\cdot v_{x},{\mathit {a}}\cdot v_{y})}
a
⋅
(
u
x
+
v
x
,
u
y
+
v
y
)
=
(
a
⋅
u
x
+
a
⋅
v
x
,
a
⋅
u
y
+
a
⋅
v
y
)
{\displaystyle {\mathit {a}}\cdot (u_{x}+v_{x},u_{y}+v_{y})=({\mathit {a}}\cdot u_{x}+{\mathit {a}}\cdot v_{x},{\mathit {a}}\cdot u_{y}+{\mathit {a}}\cdot v_{y})}
(
a
⋅
(
u
x
+
v
x
)
,
a
⋅
(
u
y
+
v
y
)
)
=
(
a
⋅
(
u
x
+
v
x
)
,
a
⋅
(
u
y
+
v
y
)
)
{\displaystyle ({\mathit {a}}\cdot (u_{x}+v_{x}),{\mathit {a}}\cdot (u_{y}+v_{y}))=({\mathit {a}}\cdot (u_{x}+v_{x}),{\mathit {a}}\cdot (u_{y}+v_{y}))}
8) distributiva por la derecha:
(
a
+
b
)
⋅
u
=
a
⋅
u
+
b
⋅
u
,
∀
a
,
b
∈
R
,
∀
u
∈
V
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot \mathbf {u} ={\mathit {a}}\cdot \mathbf {u} +{\mathit {b}}\cdot \mathbf {u} ,\quad \forall {}{\mathit {a}},{\mathit {b}}\in {}R,\quad \forall {}\mathbf {u} \in {}V}
Que en este caso tenemos:
(
a
+
b
)
⋅
u
=
a
⋅
u
+
b
⋅
u
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot \mathbf {u} ={\mathit {a}}\cdot \mathbf {u} +{\mathit {b}}\cdot \mathbf {u} }
(
a
+
b
)
⋅
(
u
x
,
u
y
)
=
a
⋅
(
u
x
,
u
y
)
+
b
⋅
(
u
x
,
u
y
)
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot (u_{x},u_{y})={\mathit {a}}\cdot (u_{x},u_{y})+{\mathit {b}}\cdot (u_{x},u_{y})}
(
a
+
b
)
⋅
(
u
x
,
u
y
)
=
(
a
⋅
u
x
,
a
⋅
u
y
)
+
(
b
⋅
u
x
,
b
⋅
u
y
)
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot (u_{x},u_{y})=({\mathit {a}}\cdot u_{x},{\mathit {a}}\cdot u_{y})+({\mathit {b}}\cdot u_{x},{\mathit {b}}\cdot u_{y})}
(
a
+
b
)
⋅
(
u
x
,
u
y
)
=
(
a
⋅
u
x
+
b
⋅
u
x
,
a
⋅
u
y
+
b
⋅
u
y
)
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot (u_{x},u_{y})=({\mathit {a}}\cdot u_{x}+{\mathit {b}}\cdot u_{x},{\mathit {a}}\cdot u_{y}+{\mathit {b}}\cdot u_{y})}
(
(
a
+
b
)
⋅
u
x
,
(
a
+
b
)
⋅
u
y
)
=
(
(
a
+
b
)
⋅
u
x
,
(
a
+
b
)
⋅
u
y
)
{\displaystyle (({\mathit {a}}+{\mathit {b}})\cdot u_{x},({\mathit {a}}+{\mathit {b}})\cdot u_{y})=(({\mathit {a}}+{\mathit {b}})\cdot u_{x},({\mathit {a}}+{\mathit {b}})\cdot u_{y})}
Queda demostrado que es espacio vectorial.
Todo cuerpo es un espacio vectorial sobre él mismo, usando como producto por escalar el producto del cuerpo.
C
{\displaystyle \mathbb {C} }
es un espacio vectorial de dimensión uno sobre
C
{\displaystyle \mathbb {C} }
.
Todo cuerpo es un espacio vectorial sobre su subcuerpo , usando como producto por escalar el producto del cuerpo.
C
{\displaystyle \mathbb {C} }
es un espacio vectorial sobre
R
{\displaystyle \mathbb {R} }
.
C
{\displaystyle \mathbb {C} }
es un espacio vectorial sobre
Q
{\displaystyle \mathbb {Q} }
.
Sucesiones sobre un cuerpo K [ editar ]
El espacio vectorial más conocido notado como
K
n
{\displaystyle K_{}^{n}}
, donde n >0 es un entero , tiene como elementos n -tuplas , es decir, sucesiones finitas de
K
{\displaystyle K_{}^{}}
de longitud n con las operaciones:
(u 1 , u 2 , ..., u n )+(v 1 , v 2 , ..., v n )=(u 1 +v 1 , u 2 +v 2 , ..., u n +v n ).
a(u 1 , u 2 , ..., u n )=(au 1 , au 2 , ..., au n ).
Las sucesiones infinitas de
K
{\displaystyle K^{}}
son espacios vectoriales con las operaciones:
(u 1 , u 2 , ..., u n , ...)+(v 1 , v 2 , ..., v n , ...)=(u 1 +v 1 , u 2 +v 2 , ..., u n +v n , ...).
a(u 1 , u 2 , ..., u n , ...)=(au 1 , au 2 , ..., au n , ...).
El espacio de las matrices
n
×
m
{\displaystyle n\times m}
,
M
n
×
m
(
K
)
{\displaystyle M_{n\times m}(K)}
, sobre
K
{\displaystyle K^{}}
, con las operaciones:
(
x
1
,
1
⋯
x
1
,
m
⋮
⋮
x
n
,
1
⋯
x
n
,
m
)
+
(
y
1
,
1
⋯
y
1
,
m
⋮
⋮
y
n
,
1
⋯
y
n
,
m
)
=
(
x
1
,
1
+
y
1
,
1
⋯
x
1
,
m
+
y
1
,
m
⋮
⋮
x
n
,
1
+
y
n
,
1
⋯
x
n
,
m
+
y
n
,
m
)
{\displaystyle {\begin{pmatrix}x_{1,1}&\cdots &x_{1,m}\\\vdots &&\vdots \\x_{n,1}&\cdots &x_{n,m}\end{pmatrix}}+{\begin{pmatrix}y_{1,1}&\cdots &y_{1,m}\\\vdots &&\vdots \\y_{n,1}&\cdots &y_{n,m}\end{pmatrix}}={\begin{pmatrix}x_{1,1}+y_{1,1}&\cdots &x_{1,m}+y_{1,m}\\\vdots &&\vdots \\x_{n,1}+y_{n,1}&\cdots &x_{n,m}+y_{n,m}\end{pmatrix}}}
a
(
x
1
,
1
⋯
x
1
,
m
⋮
⋮
x
n
,
1
⋯
x
n
,
m
)
=
(
a
x
1
,
1
⋯
a
x
1
,
m
⋮
⋮
a
x
n
,
1
⋯
a
x
n
,
m
)
{\displaystyle a{\begin{pmatrix}x_{1,1}&\cdots &x_{1,m}\\\vdots &&\vdots \\x_{n,1}&\cdots &x_{n,m}\end{pmatrix}}={\begin{pmatrix}ax_{1,1}&\cdots &ax_{1,m}\\\vdots &&\vdots \\ax_{n,1}&\cdots &ax_{n,m}\end{pmatrix}}}
También son espacios vectoriales cualquier agrupación de elementos de
K
{\displaystyle K_{}^{}}
en las cuales se defina las operaciones suma y producto entre estas agrupaciones, elemento a elemento, similar al de matrices
n
×
m
{\displaystyle n\times m}
, así por ejemplo tenemos las cajas
n
×
m
×
r
{\displaystyle n\times m\times r}
sobre
K
{\displaystyle K_{}^{}}
que aparecen en el desarrollo de Taylor de orden 3 de una función genérica.
Espacios de aplicaciones sobre un cuerpo [ editar ]
El conjunto
F
{\displaystyle F_{}^{}}
de las aplicaciones
f
:
M
→
K
{\displaystyle f:M\rightarrow K}
,
K
{\displaystyle K^{}}
un cuerpo y
M
{\displaystyle M_{}^{}}
un conjunto, también forman espacios vectoriales mediante la suma y la multiplicación habitual:
∀
f
,
g
∈
F
,
∀
a
∈
K
{\displaystyle \forall f,g\in F,\;\forall a\in K}
(
f
+
g
)
(
w
)
:=
f
(
w
)
+
g
(
w
)
,
(
a
f
)
(
w
)
:=
a
(
f
)
(
w
)
.
{\displaystyle {\begin{matrix}(f+g)(w)&:=f(w)+g(w)_{}^{},\\\;\;\;\;(af)(w)&:=a(f)(w)_{}^{}.\;\;\;\;\;\;\;\end{matrix}}}
Suma de f(x)=x+x2 y g(x)=-x2 .
El espacio vectorial
K
[
x
]
{\displaystyle K[x]}
formado por funciones polinómicas , veámoslo:
Expresión general:
p
(
x
)
=
r
n
x
n
+
r
n
−
1
x
n
−
1
+
.
.
.
+
r
1
x
+
r
0
{\displaystyle p(x)=r_{n}x^{n}+r_{n-1}x_{}^{n-1}+...+r_{1}x+r_{0}}
,donde
r
n
,
.
.
.
,
r
0
∈
K
{\displaystyle r_{n},\;...,r_{0}\in K}
, considérese
∀
i
>
n
r
i
=
0
{\displaystyle \forall i>n\;r_{i}=0}
.
p
(
x
)
+
q
(
x
)
=
(
r
n
x
n
+
r
n
−
1
x
n
−
1
+
.
.
.
+
r
1
x
+
r
0
)
{\displaystyle p(x)+q(x)=(r_{n}x^{n}+r_{n-1}x^{n-1}+...+r_{1}x+r_{0}^{})}
+
(
s
m
x
m
+
s
m
−
1
x
m
−
1
+
.
.
.
+
s
1
x
+
s
0
)
{\displaystyle +(s_{m}x^{m}+s_{m-1}x^{m-1}+...+s_{1}x+s_{0}^{})}
=
.
.
.
{\displaystyle =..._{}^{}}
=
(
t
M
x
M
+
t
M
−
1
x
M
−
1
+
.
.
.
+
t
1
x
+
t
0
)
=
(
p
+
q
)
(
x
)
{\displaystyle =(t_{M}x^{M}+t_{M-1}x^{M-1}+...+t_{1}x+t_{0}^{})=(p+q)(x)}
, donde
M
=
max
{
m
,
n
}
{\displaystyle M=\max\{m,\;n\}_{}^{}}
y
t
i
=
r
i
+
s
i
{\displaystyle t_{i}=r_{i}+s_{i}^{}}
,
a
(
p
(
x
)
)
=
a
(
r
n
x
n
+
r
n
−
1
x
n
−
1
+
.
.
.
+
r
1
x
+
r
0
)
{\displaystyle a(p(x))=a(r_{n}x^{n}+r_{n-1}x^{n-1}+...+r_{1}x+r_{0}^{})}
=
(
a
r
n
x
n
+
a
r
n
−
1
x
n
−
1
+
.
.
.
+
a
r
1
x
+
a
r
0
)
{\displaystyle =(ar_{n}x^{n}+ar_{n-1}x^{n-1}+...+ar_{1}x+ar_{0}^{})}
=
t
n
x
n
+
t
n
−
1
x
n
−
1
+
.
.
.
+
t
1
x
+
t
0
=
(
a
p
)
(
x
)
{\displaystyle =t_{n}x^{n}+t_{n-1}x^{n-1}+...+t_{1}x+t_{0}^{}=(ap)(x)}
.
Las series de potencias son similares, salvo que se permiten infinitos términos distintos de cero.
Funciones trigonométricas[ editar ]
Las funciones trigonométricas forman espacios vectoriales con las siguientes operaciones:
Expresión general:
f
(
x
)
=
a
f
∑
i
=
1
n
(
b
f
,
i
sen
(
i
x
)
+
c
f
,
i
cos
(
i
x
)
)
∈
L
2
{\displaystyle f(x)=a_{f}^{}\sum _{i=1}^{n}(b_{f,i}{\mbox{sen}}(ix)+c_{f,i}\cos(ix))\in L^{2}}
(
f
+
g
)
(
x
)
:=
f
(
x
)
+
g
(
x
)
{\displaystyle (f+g)(x):=f(x)+g(x)_{}^{}}
=
a
f
∑
i
=
1
n
(
b
f
,
i
sen
(
i
x
)
+
c
f
,
i
cos
(
i
x
)
)
+
a
g
∑
i
=
1
n
(
b
g
,
i
sen
(
i
x
)
+
c
g
,
i
cos
(
i
x
)
)
{\displaystyle =a_{f}\sum _{i=1}^{n}(b_{f,i}{\mbox{sen}}(ix)+c_{f,i}\cos(ix))+a_{g}\sum _{i=1}^{n}(b_{g,i}{\mbox{sen}}(ix)+c_{g,i}\cos(ix))}
=
(
a
f
+
a
g
)
∑
i
=
1
n
(
(
b
f
,
i
+
b
g
,
i
)
sen
(
i
x
)
+
(
c
f
,
i
+
c
g
,
i
)
cos
(
i
x
)
)
∈
L
2
{\displaystyle =(a_{f}+a_{g})\sum _{i=1}^{n}((b_{f,i}+b_{g,i}){\mbox{sen}}(ix)+(c_{f,i}+c_{g,i})\cos(ix))\in L^{2}}
,
(
a
f
)
(
x
)
:=
a
f
(
x
)
{\displaystyle (af)(x):=af(x)_{}^{}}
=
a
(
a
f
∑
i
=
1
n
(
b
f
,
i
sen
(
i
x
)
+
c
f
,
i
cos
(
i
x
)
)
)
{\displaystyle =a(a_{f}\sum _{i=1}^{n}(b_{f,i}{\mbox{sen}}(ix)+c_{f,i}\cos(ix)))}
=
a
a
f
∑
i
=
1
n
(
a
b
f
,
i
sen
(
i
x
)
+
a
c
f
,
i
cos
(
i
x
)
)
∈
L
2
{\displaystyle =aa_{f}\sum _{i=1}^{n}(ab_{f,i}{\mbox{sen}}(ix)+ac_{f,i}\cos(ix))\in L^{2}}
.
Los sistemas de ecuaciones lineales homogéneas[ editar ]
Sistema de 2 ecuaciones y 3 variables
{
a
1
,
1
x
1
+
…
+
a
1
,
n
x
n
=
0
⋮
⋮
⋮
a
m
,
1
x
1
+
…
+
a
m
,
n
x
n
=
0
{\displaystyle {\begin{cases}{\begin{matrix}a_{1,1}x_{1}&+\dots &+a_{1,n}x_{n}&=0\\\vdots &&\vdots &\vdots \\a_{m,1}x_{1}&+\dots &+a_{m,n}x_{n}&=0\end{matrix}}\end{cases}}\;\;}
o equivalentemente
(
a
1
,
1
+
…
+
a
1
,
n
⋮
⋮
a
m
,
1
+
…
+
a
m
,
n
)
(
x
1
⋮
x
n
)
=
(
0
⋮
0
)
{\displaystyle {\begin{pmatrix}a_{1,1}&+\dots &+a_{1,n}\\\vdots &&\vdots &\\a_{m,1}&+\dots &+a_{m,n}\end{pmatrix}}{\begin{pmatrix}x_{1}\\\vdots \\x_{n}\end{pmatrix}}={\begin{pmatrix}0\\\vdots \\0\end{pmatrix}}}
simplificado como
A
x
=
0
{\displaystyle A_{}^{}x=0}
Un sistema de ecuaciones lineales homogéneas( ecuaciones lineales en las que
x
=
0
{\displaystyle x=0_{}^{}}
es siempre una solución, es decir,
(
x
1
,
…
,
x
n
)
=
(
0
,
…
,
0
)
{\displaystyle (x_{1},\;\dots ,\;x_{n})=(0,\;\dots ,\;0)}
) posee soluciones que forman un espacio vectorial, se puede ver en sus dos operaciones:
Si
A
x
=
0
,
A
y
=
0
⇒
A
x
+
A
y
=
0
⇒
{\displaystyle Ax=0,Ay=0\Rightarrow Ax+Ay=0\Rightarrow }
A
(
x
+
y
)
=
0
{\displaystyle A(x+y)=0_{}^{}}
Si
A
x
=
0
,
a
∈
K
⇒
a
(
A
x
)
=
0
⇒
{\displaystyle Ax=0,a\in K\Rightarrow a(Ax)=0\Rightarrow }
A
(
a
x
)
=
0
{\displaystyle A(ax)=0_{}^{}}
.
También que las ecuaciones en sí, filas de la matriz
A
{\displaystyle A_{}^{}}
notadas como una matriz
1
×
n
{\displaystyle 1\times n}
, es decir,
E
i
=
(
a
i
,
1
,
…
,
a
i
,
n
)
{\displaystyle E_{i}=(a_{i,1},\;\dots ,\;a_{i,n})}
, son un espacio vectorial, como se puede ver en sus dos operaciones:
Si
E
i
x
=
0
,
E
j
x
=
0
⇒
{\displaystyle E_{i}x=0,\;E_{j}x=0\Rightarrow }
E
i
x
+
E
j
x
=
0
⇒
(
E
i
+
E
j
)
x
=
0
{\displaystyle E_{i}^{}x+E_{j}x=0\Rightarrow (E_{i}+E_{j})x=0}
Si
E
i
x
=
0
,
a
∈
K
⇒
{\displaystyle E_{i}x=0,\;a\in K\Rightarrow }
a
(
E
i
x
)
=
0
⇒
(
a
E
i
)
x
=
0
{\displaystyle a(E_{i}^{}x)=0\Rightarrow (aE_{i})x=0}
.
Sea
V
{\displaystyle V}
un espacio vectorial sobre
K
{\displaystyle K}
y
U
⊆
V
{\displaystyle U\subseteq V}
un subconjunto no vacío de
V
{\displaystyle V}
, se dice que
U
{\displaystyle U}
es un subespacio vectorial de
V
{\displaystyle V}
si:
u
+
v
∈
U
{\displaystyle u+v\in U}
β
u
∈
U
{\displaystyle \beta u\in U}
∀
u
,
v
∈
U
{\displaystyle \forall \;u,v\in U}
y
β
∈
K
{\displaystyle \beta \in K}
.
U
{\displaystyle U}
hereda las operaciones de
V
{\displaystyle V}
como aplicaciones bien definidas, es decir que no escapan de
U
{\displaystyle U}
, y como consecuencia tenemos que
U
{\displaystyle U}
es un espacio vectorial sobre
K
{\displaystyle K}
.
Con cualquier subconjunto de elementos seleccionados en los espacios vectoriales anteriores, no vacío, se pueden generar subespacios vectoriales, para ello sería útil introducir nuevos conceptos que facilitarán el trabajo sobre estos nuevos espacios vectoriales.
Para detallar el comportamiento interno de todos los espacios vectoriales de modo general es necesario exponer una serie de herramientas cronológicamente vinculadas entre ellas, con las cuales es posible construir resultados válidos en cualquier estructura que sea espacio vectorial.
Cada vector u es combinación lineal de forma única
Dado un espacio vectorial
E
{\displaystyle E_{}^{}}
, diremos que un vector
u
∈
E
{\displaystyle u\in E}
es combinación lineal de los vectores de
S
=
{
v
1
,
…
,
v
n
}
⊆
E
{\displaystyle S=\{v_{1},\dots ,v_{n}\}\subseteq E}
si existen
a
1
,
…
,
a
n
∈
R
{\displaystyle a_{1},\dots ,a_{n}\in \mathbb {R} }
tales que
u
=
a
1
v
1
+
⋯
+
a
n
v
n
{\displaystyle u=a_{1}v_{1}+\cdots +a_{n}v_{n}}
Denotaremos como
⟨
S
⟩
E
{\displaystyle \langle S_{}^{}\rangle _{E}}
el conjunto resultante de todas las combinaciones lineales de los vectores de
S
⊂
E
{\displaystyle S_{}^{}\subset E}
.
Dado
E
{\displaystyle E_{}^{}}
un espacio vectorial y
S
⊂
E
{\displaystyle S\subset E_{}^{}}
un conjunto de vectores, el conjunto
F
=
⟨
S
⟩
E
{\displaystyle F=\langle S_{}^{}\rangle _{E}}
es el subespacio vectorial más pequeño contenido en
E
{\displaystyle E_{}^{}}
y que contiene a
S
{\displaystyle S_{}^{}}
.
Nota . En este caso se dice que
S
{\displaystyle S_{}^{}}
es un sistema de generadores que genera a
F
{\displaystyle F_{}^{}}
.
Diremos que un conjunto
S
=
{
v
1
,
…
,
v
n
}
{\displaystyle S_{}^{}=\{v_{1},\;\dots ,\;v_{n}\}}
de vectores es linealmente independiente si el vector 0 no se puede expresar como combinación lineal no nula de los vectores de
S
{\displaystyle S_{}^{}}
, es decir:
Si
0
=
a
1
v
1
+
⋯
+
a
n
v
n
⇒
a
1
=
⋯
=
a
n
=
0
{\displaystyle 0=a_{1}v_{1}+\cdots +a_{n}v_{n}\Rightarrow a_{1}=\cdots =a_{n}=0}
.
Diremos que un conjunto
S
{\displaystyle S_{}^{}}
de vectores es linealmente dependiente si no es linealmente independiente.
v
1
,
…
,
v
n
{\displaystyle v_{1},\;\dots ,\;v_{n}}
son linealmente dependientes
⇔
∃
v
i
≠
0
:
v
i
=
∑
i
≠
j
≥
1
n
a
j
v
j
{\displaystyle \Leftrightarrow \exists v_{i}\neq 0:v_{i}=\sum _{i\neq j\geq 1}^{n}a_{j}v_{j}}
Base de un espacio vectorial [ editar ]
Las bases revelan la estructura de los espacios vectoriales de una manera concisa. Una base es el menor conjunto (finito o infinito)
B = {v i }i ∈ I de vectores que generan todo el espacio. Esto significa que cualquier vector v puede ser expresado como una suma (llamada combinación lineal ) de elementos de la base
a 1 v i 1 + a 2 v i 2 + ... + a n v i n ,
donde los a k son escalares y v i k
(k = 1, ..., n ) elementos de la base B . La minimalidad, por otro lado, se hace formal por el concepto de independencia lineal . Un conjunto de vectores se dice que es linealmente independiente si ninguno de sus elementos puede ser expresado como una combinación lineal de los restantes. Equivalentemente, una ecuación
a 1 v i 1 + a i 2 v 2 + ... + a n v i n = 0
solo se consigue si todos los escalares a 1 , ..., a n son iguales a cero. Por definición de la base cada vector puede ser expresado como una suma finita de los elementos de la base. Debido a la independencia lineal este tipo de representación es única. Los espacios vectoriales a veces se introducen desde este punto de vista.
v1 y v2 son base de un plano, si hubiese dependencia lineal (alineados), la cuadrícula no podría generarse.
Dado un sistema de generadores, diremos que es una base si son linealmente independientes.
Proposición 3. Dado un espacio vectorial
E
,
{
v
1
,
…
,
v
n
}
=
F
⊂
E
{\displaystyle E,\;\{v_{1},\;\dots ,v_{n}\}=F\subset E}
es una base
⇔
{\displaystyle \Leftrightarrow }
∀
u
∈
E
,
∃
!
a
i
∈
K
,
i
∈
1
,
…
,
n
:
{\displaystyle \forall u\in E,\;\exists !a_{i}\in K,\;i\in {1,\;\dots ,n}:}
u
=
∑
i
=
1
n
a
i
v
i
{\displaystyle u=\sum _{i=1}^{n}a_{i}v_{i}}
.
Proposición 4. Dado un espacio vectorial
E
,
S
=
{
v
1
,
…
,
v
n
}
{\displaystyle E,\;S=\{v_{1},\;\dots ,\;v_{n}\}}
linealmente independiente y
u
∉
⟨
S
⟩
⇒
{\displaystyle u\notin \langle S\rangle \Rightarrow }
{
u
}
∪
S
=
{
u
,
v
1
,
…
,
v
n
}
{\displaystyle \{u\}\cup S=\{u,\;v_{1},\;\dots ,\;v_{n}\}}
son linealmente independiente.
Teorema de la base de generadores [ editar ]
Todo sistema de generadores tiene una base.
Toda base de un espacio vectorial puede ser cambiada parcialmente por vectores linealmente independientes.
Corolario . Si un espacio vectorial
E
{\displaystyle E_{}^{}}
tiene una base de
n
{\displaystyle n_{}^{}}
vectores
⇒
{\displaystyle \Rightarrow }
cualquier otra base posee
n
{\displaystyle n_{}^{}}
vectores.
Todo espacio vectorial tiene una base. Este hecho se basa en el lema de Zorn , una formulación equivalente del axioma de elección . Habida cuenta de los otros axiomas de la teoría de conjuntos de Zermelo-Fraenkel , la existencia de bases es equivalente al axioma de elección. El ultrafilter lemma , que es más débil que el axioma de elección, implica que todas las bases de un espacio vectorial tienen el mismo "tamaño", es decir, cardinalidad . Si el espacio es generado por un número finito de vectores, todo lo anterior puede demostrarse sin necesidad de acudir a la teoría de conjuntos.
Dado un espacio vectorial sobre
K
{\displaystyle K_{}^{}}
:
Si tiene base finita, diremos dimensión al número de elementos de dicha base.
Si tiene base no finita, diremos que es de dimensión infinita .
Dado un espacio vectorial
E
{\displaystyle E_{}^{}}
y un subespacio
F
⊂
E
{\displaystyle F_{}^{}\subset E}
, tenemos que:
Si
E
{\displaystyle E_{}^{}}
tiene dimensión
n
{\displaystyle n_{}^{}}
lo indicaremos como
dim
(
E
)
=
n
{\displaystyle \dim(E)=n_{}^{}}
.
Si
F
{\displaystyle F_{}^{}}
tiene dimensión
m
{\displaystyle m_{}^{}}
como subespacio de
E
{\displaystyle E_{}^{}}
lo indicaremos como
dim
E
(
F
)
=
m
{\displaystyle \dim _{E}(F)=m_{}^{}}
.
Intersección de subespacios vectoriales[ editar ]
Dado dos subespacios vectoriales
F
,
G
⊂
E
{\displaystyle F,G\subset E}
, la intersección es subespacio vectorial contenido en estos y lo notaremos como:
F
∩
G
:=
{
u
:
u
∈
F
,
u
∈
G
}
{\displaystyle F\cap G:=\{u:\;u\in F,\;u\in G\}}
.
Observaciones . Para la intersección sucesiva de espacios vectoriales se procede, inductivamente, de dos en dos.
La unión de subespacios vectoriales no es en general un subespacio vectorial.
Suma de subespacios vectoriales [ editar ]
Dado dos subespacios vectoriales
F
,
G
⊂
E
{\displaystyle F,G\subset E}
, la suma es un subespacio vectorial que contiene a estos y la notaremos como:
F
+
G
:=
{
u
=
v
1
+
v
2
:
v
1
∈
F
,
v
2
∈
G
}
{\displaystyle F+G:=\{u=v_{1}+v_{2}:\;v_{1}\in F,\;v_{2}\in G\}}
.
Si F y G son subespacios vectoriales de E, su suma F+G es el subespacio vectorial de E más pequeño que contiene a F y a G.
Observación . Para la suma sucesiva de espacios vectoriales se procede, inductivamente, de dos en dos.
Teorema Fórmula de Grassmann[ editar ]
Dado dos subespacios vectoriales
F
,
G
⊂
E
{\displaystyle F,G\subset E}
de dimensión finita, tenemos el resultado siguiente:
dim
E
(
F
+
G
)
=
dim
E
(
F
)
+
dim
E
(
G
)
−
dim
E
(
F
∩
G
)
{\displaystyle \dim _{E}(F+G)=\dim _{E}(F)+\dim _{E}(G)-\dim _{E}(F\cap G)}
.
Suma directa de subespacios vectoriales [ editar ]
Dados dos subespacios vectoriales
F
,
G
⊂
E
{\displaystyle F,G\subset E}
, diremos que
F
+
G
{\displaystyle F+G_{}^{}}
es una suma directa si
F
∩
G
=
0
{\displaystyle F\cap G={0}}
y lo denotaremos como:
F
⊕
G
{\displaystyle F\oplus G}
.
Cuando
F
{\displaystyle F}
y
G
{\displaystyle G}
están en suma directa, cada vector de
F
+
G
{\displaystyle F+G}
se expresa de forma única como suma de un vector de
F
{\displaystyle F}
y otro vector de
G
{\displaystyle G}
.
Cociente de espacios vectoriales [ editar ]
Dado un espacio vectorial
E
{\displaystyle E\,}
y un subespacio vectorial
F
⊂
E
{\displaystyle F\subset E}
.
Dados
u
,
v
∈
E
{\displaystyle u,v\in E}
diremos que están relacionados módulo
F
{\displaystyle F\,}
si
u
−
v
∈
F
{\displaystyle u-v\in F}
.
Se nota por
[
u
]
=
u
+
F
:=
{
u
+
v
:
v
∈
F
}
{\displaystyle [u]=u+F:=\{u+v:v\in F\}}
=
{
w
:
w
=
u
+
v
,
v
∈
F
}
{\displaystyle =\{w:w=u+v,\;v\in F\}}
a la clase de
u
{\displaystyle u\,}
módulo
F
{\displaystyle F\,}
.
Llamaremos conjunto cociente o espacio cociente al conjunto de las clases de equivalencia anterior:
Se nota por
E
/
F
{\displaystyle E/F_{}^{}}
a dicho espacio cociente.
El espacio
E
/
F
{\displaystyle E/F_{}^{}}
es un espacio vectorial con las operaciones siguientes:
[
u
]
+
[
v
]
:=
[
u
+
v
]
λ
[
u
]
:=
[
λ
u
]
{\displaystyle {\begin{matrix}[u]+[v]&:=&[u+v]\\\;\;\;\;\;\;\;\lambda [u]&:=&[\lambda u]\;\;\;\;\end{matrix}}}
Construcciones básicas[ editar ]
Además de lo expuesto en los ejemplos anteriores, hay una serie de construcciones que nos proporcionan espacios vectoriales a partir de otros. Además de las definiciones concretas que figuran a continuación, también se caracterizan por propiedades universales , que determina un objeto X especificando las aplicaciones lineales de X a cualquier otro espacio vectorial.
Suma directa de espacios vectoriales [ editar ]
Dado dos espacios vectoriales
E
,
F
{\displaystyle E,\;F_{}^{}}
sobre un mismo cuerpo
K
{\displaystyle K_{}^{}}
, llamaremos suma directa al espacio vectorial
E
×
F
=
{\displaystyle E\times F=}
{
u
:=
(
u
1
,
u
2
)
:
u
1
∈
E
,
u
2
∈
F
}
{\displaystyle \{u:=(u_{1},\;u_{2}):u_{1}\in E,\;u_{2}\in F\}}
, veamos que están bien definidas las dos operaciones:
u
+
v
=
(
u
1
,
u
2
)
+
(
v
1
,
v
2
)
=
{\displaystyle u+v=(u_{1},\;u_{2})+(v_{1},\;v_{2})=}
(
u
1
+
v
1
,
u
2
+
v
2
)
{\displaystyle (u_{1}+v_{1},\;u_{2}+v_{2})}
,
a
u
=
a
(
u
1
,
u
2
)
=
{\displaystyle au=a(u_{1},\;u_{2})=}
(
a
u
1
,
a
u
2
)
{\displaystyle (au_{1},\;au_{2})}
.
Espacios vectoriales con estructura adicional [ editar ]
Desde el punto de vista del álgebra lineal, los espacios vectoriales se comprenden completamente en la medida en que cualquier espacio vectorial se caracteriza, salvo isomorfismos, por su dimensión. Sin embargo, los espacios vectoriales ad hoc no ofrecen un marco para hacer frente a la cuestión fundamental para el análisis de si una sucesión de funciones converge a otra función. Asimismo, el álgebra lineal no está adaptada per se para hacer frente a series infinitas , ya que la suma solo permite un número finito de términos para sumar. Las necesidades del análisis funcional requieren considerar nuevas estructuras.
Un espacio vectorial es normado si está dotado de una norma .
Proposición 5 . Un espacio normado es un espacio métrico , donde la distancia viene dada por:
d
(
x
,
y
)
=
‖
x
−
y
‖
{\displaystyle d(x,y)=\|x-y\|}
Toda distancia inducida por la norma es una distancia.
Espacios vectoriales topológicos[ editar ]
Dada una topología
τ
{\displaystyle \tau _{}^{}}
sobre un espacio vectorial
X
{\displaystyle X_{}^{}}
donde los puntos sean cerrados y las dos operaciones del espacio vectorial sean continuas respecto dichas topología, diremos que:
τ
{\displaystyle \tau _{}^{}}
es una topología vectorial sobre
X
{\displaystyle X_{}^{}}
,
X
{\displaystyle X_{}^{}}
es un espacio vectorial topológico .
Proposición 6. . Todo espacio vectorial topológico dotado de una métrica es espacio normado.
Proposición 7. . Todo espacio normado es un espacio vectorial topológico.
Un espacio de Banach es un espacio normado y completo.
Espacios prehilbertianos [ editar ]
Un espacio prehilbertiano es un par
(
E
,
⟨
⋅
|
⋅
⟩
)
{\displaystyle (E_{}^{},\langle \cdot |\cdot \rangle )}
, donde
E
{\displaystyle E_{}^{}}
es un espacio vectorial y
⟨
⋅
|
⋅
⟩
{\displaystyle \langle \cdot |\cdot \rangle }
es un producto a escalar .
Un espacio de Hilbert es un espacio prehilbertiano completo por la norma definida por el producto escalar.
Morfismos entre espacios vectoriales [ editar ]
Son aplicaciones entre espacios vectoriales que mantienen la estructura de los espacios vectoriales, es decir, conservan las dos operaciones y las propiedades de estas de uno a otro de dichos espacios.
Dado dos espacios vectoriales
E
{\displaystyle E_{}^{}}
y
F
{\displaystyle F_{}^{}}
, sobre un mismo cuerpo, diremos que una aplicación
f
:
E
→
F
{\displaystyle f:E\rightarrow F}
es lineal si:
f
(
u
+
E
v
)
=
f
(
u
)
+
F
f
(
v
)
{\displaystyle f(u+_{E}v)=f(u)+_{F}f(v)_{}^{}}
,
f
(
a
⋅
E
u
)
=
a
⋅
F
f
(
u
)
{\displaystyle f(a\cdot _{E}u)=a\cdot _{F}f(u)}
.
↑ Bourbaki, 1969 , ch. "Álgabre linéaire et álgebre multilinéaire", pp. 78–91.
↑ Bolzano, 1804 .
↑ Möbius, 1827 .
↑ Hamilton, 1853 .
↑ Grassmann, 1844 .
↑ Peano, 1888 , ch. IX.
↑ Banach, 1922 .
Referencias históricas[ editar ]
Banach, Stefan (1922). Sur les opérations dans les ensembles abstraits et leur application aux équations intégrales (On operations in abstract sets and their application to integral equations) (en francés) 3 . Fundamenta Mathematicae . ISSN 0016-2736 .
Bolzano, Bernard (1804). Betrachtungen über einige Gegenstände der Elementargeometrie (Considerations of some aspects of elementary geometry) (en alemán) .
Bourbaki, Nicolas (1969). Éléments d'histoire des mathématiques (Elements of history of mathematics) (en francés) . París: Hermann.
Grassmann, Hermann (1844). Die Lineale Ausdehnungslehre - Ein neuer Zweig der Mathematik (en alemán) .
Hamilton, William Rowan (1853). Lectures on Quaternions (en inglés) . Royal Irish Academy.
Möbius, August Ferdinand (1827). Der Barycentrische Calcul : ein neues Hülfsmittel zur analytischen Behandlung der Geometrie (Barycentric calculus: a new utility for an analytic treatment of geometry) (en alemán) . Archivado desde el original el 12 de abril de 2009.
Moore, Gregory H. (1995), «The axiomatization of linear algebra: 1875–1940», Historia Mathematica 22 (3): 262-303, ISSN 0315-0860 .
Peano, Giuseppe (1888). Calcolo Geometrico secondo l'Ausdehnungslehre di H. Grassmann preceduto dalle Operazioni della Logica Deduttiva (en italiano) . Turin.
Castellet, M.; Llerena, I. (1988). «IV espais vectorials». Àlgebra lineal i geometría (en catalán) . Publ. UAB.
Lang, S. (1976). Álgebra Lineal . Fondo Educativo Interamericano.
Queysanne, M., Álgebra Básica , Vicens-Vives. 1973.
Rudin, w., Análisis Funcional (Definición axiomática de espacios vectoriales topológicos introductivamente), Reverté.