Blogia
petalofucsia

Matemáticas

MATEMÁTICAS: NORMA VECTORIAL. Un vector es un elemento de un espacio vectorial del que, en ocasiones, especialmente en Física y Geometría, interesa conocer su longitud. Para ello se hace necesario definir un operador norma que determine la longitud o magnitud del vector bajo consideración ya que este acto, pese a lo que pudiéramos creer, no es un problema trivial; especialmente desde la aparición de las geometrías no euclídeas para las que aparece, asociada al concepto de longitud, la noción de geodésica. Para ampliar estas ideas conviene conocer la geometría riemanniana y la geometría diferencial.

Norma vectorial

De Wikipedia, la enciclopedia libre
¿SUBORDINACIÓN A LA NORMA? ¿SUBORDINACIÓN A LA UNIDAD?

Un vector es un elemento de un espacio vectorial del que, en ocasiones, especialmente en Física y Geometría, interesa conocer su longitud. Para ello se hace necesario definir un operador norma que determine la longitud o magnitud del vector bajo consideración ya que este acto, pese a lo que pudiéramos creer, no es un problema trivial; especialmente desde la aparición de las geometrías no euclídeas para las que aparece, asociada al concepto de longitud, la noción de geodésica. Para ampliar estas ideas conviene conocer la geometría riemanniana y la geometría diferencial.

Por tanto, basándonos en las propiedades básicas que la determinación de la longitud tiene en el espacio euclídeo habitual, definimos matemáticamente qué condiciones mínimas debe satisfacer un operador que actúe sobre un vector para poder ser considerado un operador norma en cualquier geometría. De esta forma, aparecen varias posibilidades que han sido muy fructíferas en diversos campos entre los que cabe destacar la Astrofísica y la Cosmología.

En espacios vectoriales es sinónimo de longitud de un vector.

Contenido

[ocultar]

[editar] Definición de norma euclídea

En un espacio euclídeo ordinario los vectores son representables como segmentos orientados entre puntos de dicho espacio. Dado un vector de un espacio vectorial euclídeo, la norma de un vector se define como la distancia (en línea recta) entre dos puntos A y B que delimitan dicho vector. De hecho, en un espacio euclídeo la norma de un vector coincide precisamente con el módulo del vector vec {AB}.

  • En dos dimensiones:
 | vec{AB} | = sqrt{(b_1 - a_1)^2 + (b_2 - a_2)^2} siendo vec{OA} = (a_1, a_2) y vec{OB} = (b_1, b_2) y O el origen de coordenadas de dicho espacio.
  • Extendiendo lo anterior al espacio euclídeo de tres dimensiones, es también elemental que:
 | vec {AB} | = sqrt{(b_1 - a_1)^2 + (b_2 - a_2)^2 + (b_3 - a_3)^2} siendo vec {OA} = (a_1, a_2, a_3) y vec {OB} = (b_1, b_2, b_3)
  • En el caso general de un espacio euclídeo de n dimensiones se tiene:
 | vec{AB} | = sqrt{(b_1 - a_1)^2 + (b_2 - a_2)^2 + ... + (b_n - a_n)^2} siendo vec {OA} = (a_1, a_2, ..., a_n) y vec {OB} = (b_1, b_2, ..., b_n) .

De lo anterior se sigue que, fijada una base ortonormal mathcal{B} en la que un vector mathbf{v} viene dado por sus componentes en esta base, mathbf{v}_mathcal{B} = (v_1,v_2,cdots,v_n), entonces la norma de dicho vector viene dada por:

|mathbf{v}| = sqrt{v_1^2+v_2^2+cdots+v_n^2}

[editar] Definición matemática general

La definición general de norma se basa en generalizar a espacios vectoriales abstractos la noción de módulo de un vector de un espacio euclídeo. Recuérdese que en un espacio no euclídeo el concepto de camino más corto entre dos puntos ya no es identificable con el de la línea recta; por ello, se utilizan las propiedades operacionales de la norma euclídea definida más arriba para extraer las condiciones que debe cumplir la "longitud de un vector", o norma vectorial, en un espacio vectorial cualquiera. Estas condiciones básicas son:

  • Siempre es no negativa e independiente del sentido (orientación) de la medición.
  • La longitud debe ser directamente proporcional al tamaño (es decir, doble -o triple- de tamaño significa doble -o triple- de longitud).
  • La longitud entre dos puntos será siempre menor o igual que la suma de longitudes desde esos mismos dos puntos a un tercero diferente de ellos (desigualdad triangular: la suma de dos lados de un triángulo nunca es menor que el tercer lado, también generalizada en la desigualdad de Cauchy-Schwarz).

Esto genera la siguiente definición matemática:

Sea  mathbf{V} un espacio vectorial sobre un cuerpo mathbb{K} y vec x un vector del espacio. Se dice que |.|:Vrightarrow mathbb{R} es un operador que define la norma de vec x, y escribimos |vec x|, si cumple:

  1. Para todo vec x de  mathbf{V} su norma ha de ser no negativa, y será cero si y sólo si vec x es el vector cero: 0 < |vec x| si vec x neq vec 0   y  |vec x| = 0 Longleftrightarrow vec x = vec 0 .
  2. Para todo vec x de  mathbf{V} y para todo k de mathbb{K} se satisface que |k vec x | = |k| · | vec x |
  3. Para todos vec x e vec y de mathbf{V} se cumple que  | vec {x} + vec {y} | leq | vec {x} | + | vec {y} | (desigualdad triangular).

Cualquier operador que cumpla estas tres condiciones, y en cualquier geometría, será un operador norma.

[editar] Ejemplos

A continuación se muestran algunos ejemplos de posibles operadores norma, que satisfacen la definición matemática general:

  • Para un vector vec x = (x_1,x_2,...,x_n) se define la norma-p como:

 | vec x |_p = sqrt[p]{|x_1|^p+|x_2|^p+...+|x_n|^p}

Así, para el caso p = 1 se obtiene | vec x |_1 = |x_1| + |x_2| + ... + |x_n| , y para el caso p = 2 se obtiene la norma euclídea explicada más arriba.

  • Otro operador norma sería, la norma del máximo:

| vec x |_infty = max(|x_1|,|x_2|,...,|x_n|) = max_{iin{1,dots,n}} |x_i|

Donde vec x = (x_1,x_2,...,x_n) . Para un espacio de dimensión finita numerable se podría escribir:

| vec x |_infty = sup_{iinmathbb{N}} |x_i|

La elección del subíndice infty para esta norma se debe al hecho de que:

 lim_{pto infty} , ,  | vec x |_p  = | vec x |_infty

|x| = sqrt{langle x , xrangle}

Si dicho espacio es un espacio de Hilbert entonces el espacio con la norma asociada al producto escalar es un espacio de Banach.

[editar] Véase también

MATEMÁTICAS: CORRESPONDENCIA MATEMÁTICA UNÍVOCA. Una correspondencia unívoca es una correspondencia matemática donde cada elemento del conjunto origen se corresponde con un solo elemento del conjunto imagen.

Correspondencia unívoca

De Wikipedia, la enciclopedia libre

Una correspondencia unívoca es una correspondencia matemática donde cada elemento del conjunto origen se corresponde con un solo elemento del conjunto imagen.

Los siguientes diagramas corresponden a correspondencias unívoca:

Correspon 0502.svg
Correspon 0602.svg
Correspon 0702.svg
Correspon 0802.svg
Correspon 1302.svg
Correspon 1402.svg
Correspon 1502.svg
Correspon 1602.svg

[editar] Véase también

MATEMÁTICAS: CORRESPONDENCIA MATEMÁTICA. Dados dos conjuntos: X e Y, y un Grafo f, que determina alguna Relación binaria entre algún elemento de X con algún elemento de Y, diremos que ese grafo: f, define una correspondencia[1] entre X e Y, que representaremos: F:X- Y cuando al menos un elemento de X está relacionado con al menos un elemento de Y.

Correspondencia matemática

De Wikipedia, la enciclopedia libre
Correspondencia subtipos 02.svg

Dados dos conjuntos: X e Y, y un Grafo f, que determina alguna Relación binaria entre algún elemento de X con algún elemento de Y, diremos que ese grafo: f, define una correspondencia[1] entre X e Y, que representaremos:

 fcolon X rightarrow Y

cuando al menos un elemento de X está relacionado con al menos un elemento de Y.

Contenido

[ocultar]

[editar] Un ejemplo

Correspon 00.svgCorrespon 01.svg
Correspon 02.svgCorrespon 04.svg

Si tenemos una serie de objetos, como los tubos de pintura y los pinceles, y diferenciamos por un lado los tubos y por otro los pinceles, y asociamos a cada tubo el pincel que tiene el mismo color de pintura, tenemos una relación color de la pintura entre cada tubo y cada pincel que tenga el mismo color.

Correspon 20.svg
Correspon 21.svg
Correspon 22.svg
Correspon 23.svg
Correspon 24.svg
Correspon 25.svg

En este ejemplo, podemos definir un conjunto T de tubos de pintura y otro P de pinceles y asociar a cada tubo del conjunto T, el pincel del conjunto P que tenga su mismo color, esta asociación la representaremos con una flecha del tubo al pincel correspondiente.

Puede darse el caso que tengamos un tubo de un color pero no un pincel con el mismo color de pintura, como en el ejemplo hay un tubo de color rojo pero no hay ningún pincel con pintura de color rojo, por lo tanto del tubo rojo no sale ninguna flecha.

Puede que tengamos un tubo de un color y varios pinceles con pintura de ese mismo color, así en el ejemplo hay un tubo verde y dos pinceles con pintura verde, del tubo de color verde salen dos flechas una hasta cada pincel con pintura verde.

Correspon 0101.svg

También puede ser que tengamos más de un tubo de un mismo color y un solo pincel con esa pintura, en este caso, como en el ejemplo, de los dos tubos azules salen las dos flechas hasta el único pincel con pintura azul, llegando dos flechas al pincel azul, una de cada uno de los tubos de color azul, como se ve en la figura.

En la figura del ejemplo se ve un pincel con pintura amarilla, pero no hay ningún tubo de pintura amarilla, por tanto a este pincel no llega ninguna flecha.

En resumen la correspondencia mismo color de la pintura entre un conjunto T de tubos de pintura, y otro conjunto P de pinceles, existe en tanto en cuanto al menos un tubo de pintura tiene el mismo color que uno de los pinceles, pudiendo ser esa relación tan sencilla o tan compleja como se quiera.

En una correspondencia matemática los conjuntos no tienen que ser necesariamente numéricos, ni la relación entre sus elementos operaciones aritméticas, sin que por ello deje de ser matemática.

[editar] Definiciones

Correspondencia 01.svg
Correspon 0602.svg

En una correspondencia podemos distinguir distintos conjuntos:

  • Conjunto inicial: es el primero de la correspondencia, es este caso X, lo representaremos: in(f), según el ejemplo:
 X = {rm in}(f) = {1, 2, 3, 4 } ,

En el segundo ejemplo, tenemos una correspondencia entre un conjunto de pinceles P y un conjunto de caras C que hemos pintado con esos pinceles, la correspondencia asocia a cada pincel la cara del mismo color, en este ejemplo el conjunto inicial será:

 P = {rm in}(color) = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg,Correspon P1.svg } ,
  • Conjunto final: es el segundo de la correspondencia en este caso Y, lo representaremos como fin(f), según el ejemplo:
 Y = {rm fin}(f)= {a, b, c, d } ,

En el ejemplo de los pinceles y las caras el conjunto final está formado por:

 C = {rm fin}(color) = { , Correspon C0.svg,Correspon C2.svg,Correspon C4.svg,Correspon C5.svg } ,
  • Conjunto origen: es el formado por los elementos del conjunto inicial, que están relacionados con algún elemento del conjunto final, lo representaremos or(f), en el ejemplo será:
 {rm or}(f)= {2, 3 } ,

Los pinceles de los que hay una cara pintada es el conjunto origen, de la correspondencia mismo color:

 {rm or}(color) = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg } ,
  • Conjunto imagen: es el formado por los elementos del conjunto final con los que están relacionados los elementos del conjunto origen, lo representaremos Im(f), en el ejemplo:
 {rm Im}(f) = { c, d } ,

Las caras para las que hay un pincel de su color es el conjunto imagen:

 {rm Im}(color) = { , Correspon C0.svg,Correspon C2.svg,Correspon C4.svg } ,
  • Elementos homólogos: dos elementos, uno del conjunto origen y otro del conjunto imagen, se dice que son homólogos, si están relacionados según la correspondencia f, en el ejemplo los siguientes pares ordenadas son homólogos:
 (2, d), ; (3, c)

Los pares ordenados formados por un pincel y una cara del mismo color son:

 ( , Correspon P0.svg, Correspon C0.svg ) , ( , Correspon P2.svg, Correspon C2.svg ) , ( , Correspon P4.svg, Correspon C4.svg ) ,
  • Imagen de un elemento: dado un elemento x del conjunto origen, y otro elemento y del conjunto imagen, se dice que y es imagen de x y se representa:
 f(x) = y ,

si el elemento x está relacionado con el elemento y según la correspondencia f. en el ejemplo tenemos que:

 f(2) = d ,  f(3) = c ,

La correspondencia color por la que a cada pincel se le asocia la cara pintada del mismo color es:

 {rm color}( , Correspon P0.svg  ) = , Correspon C0.svg
 {rm color}( , Correspon P2.svg  ) = , Correspon C2.svg
 {rm color}( , Correspon P4.svg  ) = , Correspon C4.svg

[editar] Correspondencia definida a partir del producto cartesiano

Dados los conjuntos X (Conjunto inicial) e Y (Conjunto final) y definido el producto cartesiano  X times Y , de estos dos conjuntos, como el conjunto de pares ordenados (x, y), donde  x in X  e  y in Y  , dado el conjunto F que contiene a los pares homónimos de la correspondencia f, y  F subset ( X times Y ) define esa correspondencia en su totalidad.

Por lo tanto podemos decir que una correspondencia entre dos conjuntos X e Y, es un subconjunto F del producto cartesiano  X times Y , que recoge los pares ordenados (x, y), que forman la correspondencia.

[editar] ejemplo 1

d(1,d)(2,d)(3,d)(4,d)
c(1,c)(2,c)(3,c)(4,c)
b(1,b)(2,b)(3,b)(4,b)
a(1,a)(2,a)(3,a)(4,a)
X×Y1234

en la diagrama anterior, tenemos los conjuntos:

 X = {1, 2, 3, 4 } , Y = {a, b, c, d } ,

el producto  X times Y es:

 X times Y  = { , (1,a), , (1,b), , (1,c), , (1,d),  
   (2,a), , (2,b), , (2,c), , (2,d),  
   (3,a), , (3,b), , (3,c), , (3,d),
   (4,a), , (4,b), , (4,c), , (4,d)  } ,

el conjunto F es el siguiente:

 F = { ( 2, d ), ( 3, c ) } ,

se puede apreciar que  F subset ( X times Y ) y que F define la correspondencia en su totalidad.

[editar] ejemplo 2

Correspon 0601.svg

Partiendo de la correspondencia entre los tubos de pintura T, y los pinceles P, asociando a cada tubo el pincel que tiene pintura del mismo color.

La correspondencia vendrá definida por los pares ordenados:

 F = { ( , Correspon T0.svg, Correspon P0.svg ) , ( , Correspon T2.svg, Correspon P2.svg ) , ( , Correspon T4.svg, Correspon P4.svg ) } ,

Vemos que el conjunto inicial es:

 T = { , Correspon T0.svg,Correspon T2.svg,Correspon T4.svg,Correspon T5.svg } ,

y el conjunto final:

 P = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg,Correspon P1.svg } ,

 

Correspon P1.svgCorresCartesi 10.svgCorresCartesi 12.svgCorresCartesi 14.svgCorresCartesi 15.svg
Correspon P4.svgCorresCartesi 40.svgCorresCartesi 42.svgCorresCartesi 44.svgCorresCartesi 45.svg
Correspon P2.svgCorresCartesi 20.svgCorresCartesi 22.svgCorresCartesi 24.svgCorresCartesi 25.svg
Correspon P0.svgCorresCartesi 00.svgCorresCartesi 02.svgCorresCartesi 04.svgCorresCartesi 05.svg
 Correspon T0.svgCorrespon T2.svgCorrespon T4.svgCorrespon T5.svg

el producto cartesiano de T por P es el conjunto de pares ordenados de cada uno de los tubos de T con cada uno de los pinceles de P, en la cuadricula podemos ver en la fila inferior cada uno de los tubos del conjunto T, y en la columna da la izquierda cada uno de los pinceles del conjunto P, donde se cortan una fila y una columna están el tubo y el pincel correspondientes, se ha destacado el fondo de las pares que forman parte de la correspondencia.

[editar] Correspondencia inversa

Correspon 0601.svg
Correspon 0600.svg

Dada una correspondencia entre los conjuntos A y B, representada:

 f: A rightarrow B

se define como correspondencia inversa de f, que llamaremos  f^{-1} ,:

 f^{-1}: B rightarrow A

a la que asocia la imagen de la función f con su origen.

Definida una correspondencia F, como un subconjunto del producto cartesiano de  A times B , donde los pares ordenados (a, b) son los asociados por la correspondencia, la correspondencia inversa  F^{-1} ,, es el subconjunto del producto cartesiano  B times A , formado por los pares ordenados (b, a) obtenidos de cambiar el orden de la correspondencia F.

Así si tenemos un conjunto T de tubos de pintura y otro conjunto P de pinceles y asociamos por una relación f a cada tubo de T el pincel con pintura del mismo color:

 f: T rightarrow P

y esta función está definida por los pares ordenados:

 , (  Correspon T0.svg, Correspon P0.svg ) , , (  Correspon T2.svg, Correspon P2.svg ) , , (  Correspon T4.svg, Correspon P4.svg ) ,

La correspondencia inversa será la que partiendo del conjunto de pinceles P asocia a cada pincel el tubo del conjunto T de pintura del mismo color:

 f^{-1}: P rightarrow T

que estará definida por los pares ordenados:

 , (  Correspon P0.svg, Correspon T0.svg ) , , (  Correspon P2.svg, Correspon T2.svg ) , , (  Correspon P4.svg, Correspon T4.svg ) ,

[editar] Tipos de correspondencias

[editar] Clasificación según la unicidad

Conjuntos 04.svg

Partiendo de dos conjuntos, uno inicial X, y otro final Y, y todas las posibles correspondencias que se pueden hacer entre estos dos conjuntos, por su interés podemos diferenciar las correspondencias unívocas y biunívocas.

  • Una correspondencia es unívoca si cada elemento inicial solo tienen una imagen.
Informalmente: "si sólo sale una flecha de cada elemento del conjunto inicial que tenga imagen"
  • Una correspondencia es biunívoca si cada elemento inicial solo tienen una imagen, y cada elemento imagen solo tiene un origen.
Informalmente: "si sólo sale una flecha de cada elemento del conjunto inicial que tenga imagen y a cada elemento del conjunto final con origen sólo le llegue una flecha"

No es necesario en ninguno de los dos casos, que todos los elementos de X tengan una imagen, ni que todos los elementos de Y tengan un origen, claramente una correspondencia tiene que ser unívoca para poder ser biunívoca.

Si representamos con un rectángulo todas las posibles correspondencias entre los conjuntos X e Y, si el conjunto B es el de las correspondencias unívocas, y al A el de las biunívocas, en un Diagrama de Venn, se ve claramente que el conjunto de las correspondencias biunívocas es un subconjunto de las correspondencias unívocas.

[editar] Correspondencia no unívoca

Correspondencia 02.svg
  • Es la correspondencia en la que al menos uno de los elementos origen tiene dos o más imágenes. En el diagrama de Venn, son las correspondencias que no pertenecen a B: B’

Si el conjunto inicial es el de los alumnos de un centro escolar, y el conjunto final el de las asignaturas que se imparten en ese centro, la correspondencia de alumnos con asignaturas, no será unívoca cuando al menos un alumno estudia dos o más asignaturas.

En el diagrama de la figura el elemento 3 tiene dos imágenes b y c, esto hace que la correspondencia no sea unívoca, independientemente de la relación que tengan el resto de los elementos. Esta doble imagen para un único origen da lugar a que podamos decir:

 f(3) = b ,  f(3) = c ,

Siendo las dos expresiones ciertas.

[editar] Correspondencia unívoca

Artículo principal: Correspondencia unívoca
  • Es una correspondencia donde cada elemento del conjunto origen se corresponde con solo un elemento del conjunto imagen.

En el diagrama de Venn son las correspondencias que pertenecen a B.

[editar] Correspondencia unívoca, no biunívoca

Correspondencia 03.svg
  • Es la que a cada origen le corresponde una única imagen, pero no todas las imágenes tienen un único origen. En el diagrama de Venn, son las correspondencias que pertenecen a B pero no a A: B-A.

Si el conjunto inicial es el de las personas de una población, y el conjunto final el de los domicilios de esa población, la correspondencia de personas con domicilios, será unívoca pero no biunívoca cuando, cada persona viva en un único domicilio y en algún domicilio vivan varias personas.

La correspondencia representada en este diagrama es unívoca, pero no es biunívoca porque el elemento d, tiene dos orígenes: 1 y 2. Así tenemos que:

 f(1) = d ,  f(2) = d ,

esto hace que no sea una correspondencia biunívoca, aunque por el resto de las relaciones si pueda serlo.

[editar] Correspondencia biunívoca

Artículo principal: Correspondencia biunívoca

Es decir: cada elemento del conjunto origen se corresponde con solo un elemento del conjunto imagen, y cada elemento del conjunto imagen se corresponde con solo un elemento del conjunto origen.

En el diagrama de Venn son las correspondencias que pertenecen a A.

Ejemplos

Correspondencia 04.svg
  • En el diagrama de la figura se ve que:
 f(2) = a ,  f(3) = b ,  f(4) = d ,

siendo estas todas las relaciones de esta correspondencia. Los elementos origen tienen una única imagen, y los elementos imagen tienen un único origen, puede haber elementos sin imagen como el 1, y elementos sin origen como la c, pero esto no influye en la definición de biunicidad.

  • Si consideramos como conjunto origen el de personas, y por conjunto imagen el de automóviles, esta correspondencia será biunívoca cuando las personas que tienen automóvil tienen un solo automóvil, y cada automóvil tenga un solo propietario.
  • Se puede establecer una correspondencia biunívoca entre cada número natural con su cuadrado.
  • Otro ejemplo podría ser una correspondencia biunívoca entre cada estudiante con su número de legajo.
  • Una relación biunívoca muy utilizada e independiente de otros valores es la existente entre el valor de la propiedad termométrica utilizada y el valor numérico de la temperatura asignada. Esto es que cada valor de temperatura se corresponde únicamente con un valor de la escala del termometro y cada valor de la escala del termometro se corresponde únicamente con un valor de temperatura.

[editar] Aplicación matemática

Aplicación 2.svg
Artículo principal: Función matemática

Dada una correspondencia matemática entre todos los elementos del conjunto X con los elementos del conjunto Y, diremos que esta correspondencia: f, es una Aplicación [2] [3] [4] [5] entre X e Y, que suele llamarse función matemática[6] si los conjuntos inicial y final son numéricos y se represente:

 f: X rightarrow Y
  • Cuando:
  1. Todos los elementos de X están relacionados con elementos de Y.
  2. Cada elemento de X, está relacionado con un único elemento de Y.

Vulgarmente: todos los elementos del conjunto origen tienen flecha y sólo una

Esto es: una correspondencia matemática es una aplicación, si todos los elementos del conjunto inicial tienen una imagen y solo una imagen.

En el diagrama se pueden ver los conjuntos X e Y:

d(1,d)(2,d)(3,d)(4,d)
c(1,c)(2,c)(3,c)(4,c)
b(1,b)(2,b)(3,b)(4,b)
a(1,a)(2,a)(3,a)(4,a)
X×Y1234
 X = {1, 2, 3, 4 } , Y = {a, b, c, d } ,

Como se puede ver, a cada uno de los elementos de X le corresponde un único elemento de Y. El elemento a de Y no tiene origen y el elemento b tiene dos orígenes (el 1 y el 4), pero esto no afecta a la definición de aplicación como tipo de correspondencia.

 

[editar] Tipos de Aplicación matemática

Dados dos conjuntos X, Y, y todas las posibles aplicaciones que pueden formarse entre estos dos conjuntos, se pueden diferenciar los siguientes casos:

Conjuntos 01.svg
  • Si a cada imagen le corresponde un único origen, inyectiva.
Vulgarmente: "a cada elemento del conjunto final que tenga origen, le llega sólo una flecha"
  • Si la aplicación es sobre todo el conjunto final, sobreyectiva.
Vulgarmente: "si a todos los elementos del conjunto final les llega una flecha, al menos"

Además de estos dos casos característicos, una aplicación puede ser inyectiva y sobreyectiva simultáneamente, que se denominan biyectiva, o ninguna de ellas en cuyo caso no tiene un nombre especifico.

Vulgarmente: "en una aplicación biyectiva todos los elementos origen tienen una flecha y a todos los elementos imagen, les llega una sola flecha"

Vamos a representar los tipos de aplicaciones en un Diagrama de Venn, el conjunto universal U, representado por un rectángulo, es el de todas las posibles aplicaciones, el conjunto A es el de las aplicaciones inyectivas, y el conjunto B el de las sobreyectivas, esto nos permite ver los distintos tipos de aplicaciones de un modo gráfico.

[editar] Aplicación inyectiva y no sobreyectiva

Aplicación inyectiva y no sobreyectiva

Una aplicación inyectiva cada elemento imagen tendrá un único origen y una no sobreyectiva tendrá al menos un elemento del conjunto final que no tenga elemento origen.

En el diagrama de Venn corresponden a las aplicaciones que pertenecen a A y no pertenecen a B, esto es las que pertenecen a la diferencia de A y B: A-B.

En estas aplicaciones la cardinalidad de X es siempre menor que la de Y, esto es el conjunto Y tendrá mayor número de elementos que X cuando tratamos de compararlos.

[editar] Ejemplo

en el diagrama de la figura:

todos los elementos de Y, que tienen origen, tienen un único origen, esto hace que la aplicación sea inyectivael elemento d de Y, no tiene ningún origen por lo que esta aplicación no es sobreyectiva.
[editar] Segundo ejemplo
Correspon 1402.svg

Partiendo del conjunto de pinceles con pintura de colores:

 P = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg } ,

Sobre el conjunto de caras pintadas:

 C = { , Correspon C0.svg,Correspon C2.svg,Correspon C4.svg,Correspon C1.svg } ,

Asociando cada pincel con la cara correspondiente:

Correspon 30.svg

Dado que cada pincel tiene una cara y solo una cara de su color esta correspondencia es una aplicación, como las caras que tiene pincel de su color, tienen un solo pincel de su color, la aplicación es inyectiva, y como la cara pintada de amarillo, no tiene ningún pincel de este color, la aplicación no es sobreyectiva.

[editar] Aplicación no inyectiva y sobreyectiva

Aplicación no inyectiva y sobreyectiva

Una aplicación no inyectiva tiene al menos un elemento imagen que tiene dos o más orígenes y una sobreyectiva todos los elementos del conjunto final tienen al menos un elemento origen.

En el diagrama de Venn corresponden a las aplicaciones que no pertenecen a A y si pertenecen a B, esto es las que pertenecen a la diferencia de B y A: B-A.

Para esta aplicación el conjunto X ha de tener mayor número de elementos que Y, la cardinalidad de X ha de ser mayor que la de Y.

[editar] Ejemplo

en el diagrama de la figura:

el elemento c de Y, tiene dos orígenes: el 3 y el 4, por lo que esta aplicación no es inyectiva.todos los elementos de Y, tienen origen, esto hace que la aplicación sea sobreyectiva.
[editar] Segundo ejemplo
Correspon 1502.svg

Igual que en el ejemplo anterior partiremos del conjunto de pinceles con pintura de colores:

 P = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg,Correspon P4.svg } ,

En este caso hay dos pinceles con pintura azul, pero a pesar de tener el mismo color de pintura son dos pinceles distintos.

Como conjunto final tenemos el conjunto de caras pintadas:

 C = { , Correspon C0.svg,Correspon C2.svg,Correspon C4.svg } ,

Asociando cada pincel con la cara del mismo color, vemos que cada pincel tiene una cara pintada de su color y solo una, esto hace que la correspondencia sea una aplicación, la cara azul tiene dos pinceles de su mismo color, por lo que no es inyectiva, todas las caras tiene un pincel con su color, luego la aplicación es sobreyectiva.

[editar] Aplicación inyectiva y sobreyectiva (biyectiva)

Aplicación biyectiva

Si una aplicación es inyectiva y sobreyectiva simultáneamente, se denomina biyectiva. Por ser inyectiva los elementos que tienen origen tienen un único origen y por ser sobreyectiva todos los elementos del conjunto final tienen origen.

En el diagrama de Venn el conjunto A es el de las aplicaciones inyectiva y el conjunto B el de las aplicaciones sobreyectiva, las aplicaciones biyectiva, que son inyectiva y sobreyectiva, será la intersección de A y B.

Estas dos circunstancias dan lugar a que el conjunto X e Y tengan el mismo número de elementos, la cardinalidad de X es la misma que la de Y, esto tiene una gran importancia cuando se pretende comparar dos conjuntos:

  • Si dados dos conjuntos podemos encontrar una aplicación biyectiva entre ellos, podemos afirmar, que los dos conjuntos tienen el mismo número de elementos. La cardinalidad de X es igual a la de Y.
[editar] Ejemplo
f(x)= 2x

en el diagrama de la figura:

todos los elementos de Y, que tienen origen, tienen un único origen, esto hace que la aplicación sea inyectivatodos los elementos de Y, tienen origen, esto hace que la aplicación sea sobreyectiva.

Si tomaremos por conjunto inicial el conjunto de los números naturales:

 X = {1, 2, 3, ... } ,

y por conjunto final el de los números naturales pares:

 Y = {2, 4, 6, ... } ,

Podemos ver que la relación

 f: X rightarrow Y  f: x mapsto 2x

Por el que a cada número natural x de X, le asociamos un número par 2x de Y, se cumple:

  1. f: es una aplicación, dado que a cada uno de los valores x de X le corresponde un único valor 2x de Y.
  2. esta aplicación es inyectiva dado que a cada número par 2x de Y le corresponde un único valor x de X.
  3. y es sobreyectiva porque todos los números pares tienen un origen

Esto nos permite afirmar que hay el mismo número de números naturales que de números naturales pares, se da la paradoja de que los números naturales pares en un subconjunto propio de los números naturales, esta circunstancia solo se da con los conjuntos infinitos.

[editar] Segundo ejemplo
Correspon 1602.svg

Tomando el conjunto de pinceles como conjunto inicial:

 P = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg,Correspon P1.svg } ,

y el de caras como conjunto final:

 C = { , Correspon C0.svg,Correspon C2.svg,Correspon C4.svg,Correspon C1.svg } ,

La correspondencia que asocia cada pincel con la cara de su mismo color es una aplicación porque todos los pinceles tienen una cara con su color y solo una cara de ese color, la aplicación es inyectiva porque un pincel corresponde con una sola cara, y es sobreyectiva porque todas las caras tiene un pincel de su color, al ser inyectiva y sobreyectiva simultáneamente esta aplicación es biyectiva.

Una aplicación biyectiva hace corresponder los elementos del conjunto inicial con los del conjunto final uno a uno, pudiéndose decir que hay el mismo número de elementos en el conjunto inicial que en el final.

[editar] Aplicación no inyectiva y no sobreyectiva

Aplicación no inyectiva y no sobreyectiva

Una aplicación no inyectiva tendrá al menos un elemento imagen que tenga dos o más orígenes y una no sobreyectiva tendrá al menos un elemento del conjunto final que no tenga elemento origen. Este tipo de aplicaciones no tiene un nombre especifico y quizá sean las que presenten, desde el punto de vista matemático, un menor interés.

Para esta aplicación los conjuntos X e Y no son comparables, y no podemos plantear ningún supuesto sobre su cardinalidad, partiendo de su comparación, ni sobre su número de elementos.

En el diagrama de Venn corresponden a las aplicaciones que no pertenecen a A y no pertenecen a B, esto es las que no pertenecen a la unión de A y B.

[editar] Ejemplo

en el diagrama de la figura:

el elemento b de Y, tiene dos orígenes: 1 y 2, esto hace que esta aplicación no sea inyectivael elemento a de Y, no tiene ningún origen por lo que esta aplicación no es sobreyectiva
[editar] Segundo ejemplo
Correspon 1302.svg

Si tomamos como conjunto inicial el de pinceles de colores:

 P = { , Correspon P0.svg,Correspon P2.svg,Correspon P4.svg,Correspon P4.svg } ,

y como conjunto final el de caras coloreadas:

 C = { , Correspon C0.svg,Correspon C2.svg,Correspon C4.svg,Correspon C1.svg } ,

Vemos que todos los pinceles tiene una cara y solo una cara de su mismo color, luego esta correspondencia es una aplicación matemática.

Como la cara azul tiene dos pinceles de su color la aplicación no es inyectiva, y como la cara amarilla no tiene ningún pincel de ese color no es sobreyectiva, luego esta aplicación es no inyectiva y no sobreyectiva.

[editar] Véase también

[editar] Bibliografia

  1. Gutiérrez Gómez, Andrés; García Castro, Fernando (1981) (en español). Álgebra lineal (1 edición). Ediciones Pirámide, S.A.. ISBN 978-84-368-0174-3. 

[editar] Referencia

  1. Hurtado, F. (2 de 1997) (en español). Atlas de matemáticas (1 edición). Idea Books, S.A.. pp. 8. ISBN 978-84-8236-049-2. 
  2. Neila Campos (1 de 2003). «ÁLGEBRA LINEAL» (en español) págs. INTRODUCCIÓN: APLICACIONES ENTRE CONJUNTOS..
  3. F. Zotes (9 de 2009). «Cardinalidad de conjuntos» (en español) págs. I. Aplicaciones..
  4. Hurtado, F. (2 de 1997) (en español). Atlas de matemáticas (1 edición). Idea Books, S.A.. pp. 8. ISBN 978-84-8236-049-2. 
  5. Thomas Ara, Luis (9 de 1974). «Tema IV Aplicaciones» (en español). Algebra Lineal. Mª E. Rios Garcia (2 edición). AUTOR-EDITOR 15. pp. 38-54. ISBN 978-84-400-7995-4. 
  6. Gutiérrez Gómez, Andrés; García Castro, Fernando (1981). «3.2. Aplicaciones o funciones» (en español). Álgebra lineal (1 edición). Ediciones Pirámide, S.A.. pp. 131. ISBN 978-84-368-0174-3. 

[editar] Enlaces externos

Correspondencia matemáticaCONJUNTOS, APLICACIONES Y RELACIONES BINARIAS.Aplicaciones matemáticas

MATEMÁTICAS: RAZÓN (MATEMÁTICAS). En matemáticas, una razón es una relación entre dos números semejantes (es decir, objetos, personas, estudiantes, cucharadas, unidades idénticas de cualquier dimensión), generalmente se expresa como "a es a b" o a:b, a veces se expresa aritméticamente como un cociente adimensional de los dos, que indica de manera explícita las veces que el primer número contiene el segundo.

Razón (matemáticas)

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Razón (desambiguación).
«ratio» redirige aquí. Para los coeficientes usados en economía y finanzas, véase ratio financiero.

En matemáticas, una razón es una relación entre dos números semejantes (es decir, objetos, personas, estudiantes, cucharadas, unidades idénticas de cualquier dimensión), generalmente se expresa como "a es a b" o a:b, a veces se expresa aritméticamente como un cociente adimensional de los dos, que indica de manera explícita las veces que el primer número contiene el segundo.

Contenido

[ocultar]

[editar] Razón geométrica

La razón entre el ancho y la altura de un típico monitor de computadora.

La razón geométrica es la comparación de dos cantidades por su cociente, en donde se ve cuántas veces contiene una a la otra. Es necesario tener el dominio o rango para poder sacarla.

Ejemplo: 18 entre 6 es igual a 3 (18 tiene tres veces seis); su razón geométrica es 3.

La razón se puede escribir de 3 formas Ejemplo A. 50 sobre 70 B. 50 es a 70 C. 50: 70 El numerador de la razón se llama antecedente debido a que puede haberse dividido o multiplicado.

[editar] Razón aritmética

La razón aritmética de dos cantidades es la diferencia (o resta) de dichas cantidades. La razón aritmética se puede escribir colocando entre las dos cantidades el signo . o bien con el signo -. Así, la razón aritmética de 6 a 4 se escribe: 6.4 ó 6-4.

color{red}{antecedenterightarrow 6}color{black}{-}color{blue}{4leftarrow consecuente}

El primer término de una razón aritmética recibe el nombre de antecedente y el segundo el de consecuente. Así en la razón 6-4, el antecedente es 6 y el consecuente 4.

[editar] Propiedades de las razones Aritméticas

Como la razón aritmética de dos cantidades no es más que la resta indicada de dichas cantidades, las propiedades de las razones aritméticas serán las propiedades de toda suma o resta.

PRIMERA PROPIEDAD

Si al antecedente se le suma o resta una cantidad la razón aritmética queda aumentada o disminuida dicha cantidad.

  • Primer caso (con la suma)
Sea la razón aritmética 7 a 5 es igual a 2:

 7-5=2,  o , 7.5=2

Si le sumamos al antecedente el número 4 (aclaramos que puede ser cualquier número) entonces tendríamos (7+4)-5= 6. Como se observa la respuesta de la razón aritmética original (7-5=2), después de sumarle 4 al antecedente ((7+4)-5= 6) la respuesta queda aumentada en dicha cantidad.
  • Segundo caso (con la resta)
Sea la razón aritmética 18 a 3 es igual a 15:

 18-3=15,  o , 18.3=15

Si le restamos al antecedente el número 2 (aclaramos que puede ser cualquier número) entonces tendríamos (18-2)-3= 13. Como se observa la respuesta de la razón aritmética original (18-3=15), después de restarle 2 al antecedente ((18-2)-3= 13) la respuesta queda disminuida en dicha cantidad.

SEGUNDA PROPIEDAD

Si al consecuente de una razón aritmética se suma o se resta una cantidad cualquiera, la razón queda disminuida en el primer caso y aumentada en el segundo en la cantidad de veces que indica dicho número.

  • Primer caso (sumando una cantidad cualquiera al consecuente)
Sea la razón aritmética 45 a 13 es igual a 32:Si le sumamos al consecuente el número 7 (aclaramos que puede ser cualquier número) entonces tendríamos 45-(13+7)=25. Como se observa la respuesta de la razón aritmética original (45-13=32), después de sumarle 7 al consecuente 45-(13+7)=25) la respuesta queda disminuida en dicha cantidad es decir de 32 paso a ser 25.
  • Segundo caso (restando una cantidad cualquiera al consecuente)
Sea la razón aritmética 36 a 12 es igual a 24:Si le restamos al consecuente el número 3 (aclaramos que puede ser cualquier número) entonces tendríamos 36-(12-3)= 27. Como se observa la respuesta de la razón aritmética original (36-12=24), después de restarle 3 al consecuente (36-(12-3)= 27) la respuesta queda aumentada en dicha cantidad es decir de 24 paso a ser 27.

[editar] Proporciones Aritméticas

Una "proporción aritmética" es la = de 2 razones. Las proporciones aritméticas se pueden representar de dos maneras distintas:

  • a/b = c/d o bien
  • a:b = c:d

y se lee "a es a b como c es a d".

Los términos primero y cuarto de una proporción aritmética reciben el nombre de extremos, mientras que los términos segundo y tercero se denominan medios. Los términos primero y tercero reciben el nombre de antecedentes, mientras que los términos segundo y cuarto se llaman consecuentes.

Así sea la proporción aritmética 10:5 = 8:4. Los términos 10 y 4 (son extremos) y, 5 y 8 (son medios).

Las proporciones aritméticas cuyos medios no son iguales reciben el nombre de proporciones aritméticas discretas. Por el contrario, si los medios de la proporción aritmética son iguales, ésta recibe el nombre de continua. En el caso del ejemplo se trata de una proporción aritmética discreta porque sus medios son desiguales (5 y 8).

En toda proporción (no continua):

  • El producto de los extremos será igual al producto de los medios.

(10×4 = 5×8)

Se define la media aritmética de una proporción aritmética continua como cada uno de los medios iguales de dicha proporción aritmética. Sea: 10-8::8-6. La media aritmética es 8.

La media aritmética de una proporción aritmética es igual a la semisuma de los extremos.

La razón geométrica de dos números es el cociente exacto de dividir el primero a por el segundo b y se representa:

a:b

Se lee "a" es a "b" como "c" es a "d"

Donde el a, b son entero, fraccionario o mixto (desde el punto de la aritmética).

Las razones se pueden escribir de tres maneras diferentes:

Ejemplo:

2 es a 202:1 /12/1

Por lo tanto toda razón se puede expresar como una fracción y eventualmente como un decimal.

[editar] Véase también

MATEMÁTICAS: RAZONES Y CARTESIANISMO. COORDENADAS CARTESIANAS. El plano cartesiano es un sistema de referencia respecto ya sea a un solo eje (línea recta), respecto a dos ejes (un plano) o respecto a tres ejes (en el espacio), perpendiculares entre sí (plano y espacio), que se cortan en un punto llamado origen de coordenadas. En el plano, las coordenadas cartesianas (o rectangulares) x e y se denominan abscisa y ordenada, respectivamente.

Coordenadas cartesianas

De Wikipedia, la enciclopedia libre

El plano cartesiano es un sistema de referencia respecto ya sea a un solo eje (línea recta), respecto a dos ejes (un plano) o respecto a tres ejes (en el espacio), perpendiculares entre sí (plano y espacio), que se cortan en un punto llamado origen de coordenadas. En el plano, las coordenadas cartesianas (o rectangulares) x e y se denominan abscisa y ordenada, respectivamente.

Cartesian-coordinate-system.svg

Contenido

[ocultar]

[editar] Historia

Se denominan coordenadas cartesianas en honor a René Descartes (1596-1650), el célebre filósofo y matemático francés que quiso fundamentar su pensamiento filosófico en la necesidad de tomar un «punto de partida» sobre el que edificar todo el conocimiento.

Como creador de la geometría analítica, Descartes también comenzó tomando un «punto de partida», el sistema de referencia cartesiano, para poder representar la geometría plana, que usa sólo dos rectas perpendiculares entre sí que se cortan en un punto denominado «origen de coordenadas», ideando las denominadas coordenadas cartesianas.

[editar] Sistema de coordenadas lineal

Un punto cualquiera de una recta puede asociarse y representarse con un número real, positivo si está situado a la derecha de un punto O, y negativo si está a la izquierda. Dicho punto se llama centro de coordenadas O (letra O) y se asocia al valor 0 (cero).

Corresponde a la dimensión uno, que se representa con el eje X, en el cual se define un centro de coordenadas, simbolizado con la letra O (de origen) y un vector unitario en el sentido positivo de las x: mathbf{i}.

Este sistema de coordenadas es un espacio vectorial de dimensión uno, y se le pueden aplicar todas las operaciones correspondientes a espacios vectoriales. También se le llama recta real.

Sistema de coordenadas en la recta.

Un punto:

A= ({x_A}),

también puede representarse:

 vec {OA}= x_A,mathbf{i}

La distancia entre dos puntos A y B es:

d_{AB} = |x_A - x_B| ,

[editar] Sistema de coordenadas plano

Con un sistema de referencia conformado por dos rectas perpendiculares que se cortan en el origen, cada punto del plano puede "nombrarse" mediante dos números: (x, y), que son las coordenadas del punto, llamadas abscisa y ordenada, respectivamente, que son las distancias ortogonales de dicho punto respecto a los ejes cartesianos.

Sistema de coordenadas cartesianas.

La ecuación del eje x es y = 0, y la del eje y es x = 0, rectas que se cortan en el origen O, cuyas coordenadas son, obviamente, (0, 0).

Se denomina también abscisa al eje x, y ordenada al eje y. Los ejes dividen el espacio en cuatro cuadrantes en los que los signos de las coordenadas alternan de positivo a negativo (por ejemplo, las dos coordenadas del punto A serán positivas, mientras que las del punto B serán ambas negativas).

Las coordenadas de un punto cualquiera vendrán dadas por las proyecciones del segmento entre el origen y el punto sobre cada uno de los ejes.

Sobre cada uno de los ejes se definen vectores unitarios (i y j) como aquellos paralelos a los ejes y de módulo (longitud) la unidad. En forma vectorial, la posición del punto A se define respecto del origen con las componentes del vector OA.

 overline{OA} = x_A , mathbf{i} + y_A  , mathbf{j}

La posición del punto A será:

 A = ( x_A , , y_A )

Nótese que la lista de coordenadas puede expresar tanto la posición de un punto como las componentes de un vector en notación matricial.

La distancia entre dos puntos cualesquiera vendrá dada por la expresión:

d_{overline{AB}} = sqrt{(x_B - x_A)^2 + (y_B - y_A)^2} ,

Aplicación del teorema de Pitágoras al triángulo rectángulo ABC.

Un vector cualquiera AB se definirá restando, coordenada a coordenada, las del punto de origen de las del punto de destino:

 overline{AB} = (x_B - x_A) , mathbf{i} + (y_B - y_A), mathbf{j}

Evidentemente, el módulo del vector AB será la distancia dAB entre los puntos A y B antes calculada.

[editar] Sistema de coordenadas espacial

Si tenemos un sistema de referencia formado por tres rectas perpendiculares entre sí (X, Y, Z), que se cortan en el origen (0, 0, 0), cada punto del espacio puede nombrarse mediante tres números: (x, y, z), denominados coordenadas del punto, que son las distancias ortogonales a los tres planos principales: los que contienen las parejas de ejes YZ, XZ e YX, respectivamente.

coordenadas cartesianas espaciales.

Los planos de referencia XY (z = 0); XZ (y = 0); e YZ (x = 0) dividen el espacio en ocho cuadrantes en los que, como en el caso anterior, los signos de las coordenadas pueden ser positivos o negativos.

La generalización de las relaciones anteriores al caso espacial es inmediata considerando que ahora es necesaria una tercera coordenada (z) para definir la posición del punto.

    overline{OA} =    x_A , mathbf{i} +    y_A , mathbf{j} +    z_A , mathbf{k}

Las coordenadas del punto A serán:

    A = ( x_A , , y_A , , z_A )

y el B:

    B = ( x_B , , y_B , , z_B )

La distancia entre los puntos A y B será:

    d_{overline{AB}} =    sqrt{       (x_B - x_A)^2 +       (y_B - y_A)^2 +        (z_B - z_A)^2    } ,

El segmento AB será:

    overline{AB} =    (x_B - x_A) , mathbf{i} +    (y_B - y_A) , mathbf{j} +    (z_B - z_A) , mathbf{k}

[editar] Cambio del sistema de coordenadas

Tanto en el caso plano como en el caso espacial pueden considerarse tres transformaciones elementales: traslación (del origen), rotación (alrededor de un eje) y escalado.

[editar] Traslación del origen

Traslación del origen en coordenadas cartesianas.

Suponiendo un sistema de coordenadas inicial S1 con origen en O y ejes x e y

 S1 = {O;; x,y }

y las coordenadas de un punto A dado, sean en el sistema S1:

 A = (x_A ,; y_A )

dado un segundo sistema de referencia S2

 S2 = {O^prime ;; x^prime,y^prime }

Siendo los centros de coordenadas de los sistemas 0 y , puntos distintos, y los ejes x, ; e y, paralelos dos a dos, y las coordenadas de , respecto a S1:

 O^prime = (x_{O^prime} , ; y_{O^prime})

Se dice traslación del origen, a calcular las coordenadas de A en S2, según los datos anteriores, que llamaremos:

 A^prime = (x^prime_A ,; y^prime_A )

Dados los puntos O, y A, tenemos la suma de vectores:

 overline{OA} = overline{O O^prime} + overline{O^prime A}

despejando

 overline{O^prime A} = overline{OA} - overline{O O^prime}

Lo que es lo mismo que:

 (x^prime_A ,; y^prime_A ) = (x_A ,; y_A ) - (x_{O^prime} , ; y_{O^prime})

Separando los vectores por coordenadas:

 x^prime_A = x_A - x_{O^prime}  y^prime_A = y_A - y_{O^prime}

y ampliándolo a tres dimensiones:

 z^prime_A = z_A - z_{O^prime}

[editar] Rotación alrededor del origen

Rotación alrededor del origen en coordenadas cartesianas.

Dado un sistema de coordenadas en el plano S1 con origen en O y ejes x e y:

 S_1 = { O; ; x,y }

y una base ortonormal de este sistema:

 B_1 = { mathbf{i} , mathbf{j} }

Un punto A del plano se representará en este sistema según sus coordenadas:

 mathbf{A} = x_A,mathbf{i} +y_A,mathbf{j}

Para un segundo sistema S2 de referencia girado un ángulo alpha , , respecto al primero:

S_2 ={ O; ; x^prime , y^prime }

y con una base ortonormal:

mathbf B_2 = { mathbf{i^prime} , mathbf{j^prime} }

Al cálculo de las coordenadas del punto A, respecto a este segundo sistema de referencia, girado respecto al primero, se llama rotación alrededor del origen, siendo su representación:

 {mathbf A^prime} = x^prime_A , mathbf{i^prime} + y^prime_A , mathbf{j^prime}

Hay que tener en cuenta que el punto  mathbf A , y  mathbf A^prime , son el mismo punto,  mathbf A equiv mathbf A^prime ; se emplea una denominación u otra para indicar el sistema de referencia empleado. El valor de las coordenadas respecto a uno u otro sistema, sí son diferentes, y es lo que se pretende calcular.

La representación de B1 en B2 es:

 mathbf{i} = cos {alpha} , mathbf{i^prime} - sin {alpha} , mathbf{j^prime}  mathbf{j} = sin {alpha} , mathbf{i^prime} + cos {alpha} , mathbf{j^prime}

Dado que el punto A en B1 es:

 mathbf {A} = x_A , mathbf{i} + y_A , mathbf{j}

con la transformación anterior tenemos:

 mathbf {A} = x_A ,(cos {alpha} , mathbf{i^prime} - sin {alpha} , mathbf{j^prime}) + y_A , (sin {alpha} , mathbf{i^prime} + cos {alpha} , mathbf{j^prime})

Y, deshaciendo los paréntesis:

 mathbf {A} = x_A , cos {alpha} , mathbf{i^prime} - x_A , sin {alpha} , mathbf{j^prime} + y_A , sin {alpha} , mathbf{i^prime} + y_A , cos {alpha} , mathbf{j^prime}

reordenando:

 mathbf {A} = (x_A , cos {alpha}+ y_A , sin {alpha}) , mathbf{i^prime} +(- x_A , sin {alpha} + y_A , cos {alpha}) , mathbf{j^prime}

Como:

 mathbf A equiv A^prime ;

Tenemos que:

 mathbf {A^prime} = (x_A , cos {alpha} + y_A , sin {alpha}) , mathbf{i^prime} +(- x_A , sin {alpha} + y_A , cos {alpha}) , mathbf{j^prime}

Como sabíamos:

 mathbf {A^prime} = x^prime_A , mathbf{i^prime} + y^prime_A , mathbf{j^prime}

Por identificación de términos:

 x^prime_A = ; x_A , cos {alpha} + y_A , sin {alpha}  y^prime_A = - x_A , sin {alpha} + y_A , cos {alpha}

Que son las coordenadas de A en B2, en función de las coordenadas de A en B1 y de  {alpha} , .

[editar] Escalado

Sea un punto con coordenadas (x,y) en el plano. Si se cambia la escala de ambos ejes en un factor λ, las coordenadas de dicho punto en el nuevo sistema de coordenadas pasarán a ser:

(x',y') = (lambda x,lambda y),

El factor de escala λ no necesariamente debe ser el mismo para ambos ejes.

[editar] Cálculo matricial

Siendo [T] la matriz de transformación y cuyas filas son precisamente las componentes de los vectores unitarios i ' y j ' respecto de los originales i y j, o si se prefiere, cuyas columnas son las componentes de los vectores unitarios originales en el sistema de referencia rotado.

Matriz de transformación (rotación).png

Nota: Las magnitudes vectoriales están en negrita.

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: TEORÍA DEL ORDEN. La teoría del orden es una rama de la matemática que estudia varias clases de relaciones binarias que capturan la noción intuitiva del orden matemático. Este artículo da una introducción detallada a este campo e incluye algunas de las definiciones más básicas. Para una rápida búsqueda de un término orden teórico, hay también un glosario de teoría del orden. Una lista de asuntos sobre orden recoge los artículos que existen en relación a esta teoría del orden.

Teoría del orden

De Wikipedia, la enciclopedia libre

La teoría del orden es una rama de la matemática que estudia varias clases de relaciones binarias que capturan la noción intuitiva del orden matemático. Este artículo da una introducción detallada a este campo e incluye algunas de las definiciones más básicas. Para una rápida búsqueda de un término orden teórico, hay también un glosario de teoría del orden. Una lista de asuntos sobre orden recoge los artículos que existen en relación a esta teoría del orden.

Contenido

[ocultar]

[editar] Trasfondo y motivación

El orden aparece por todas partes - por lo menos, si se trata de matemática y áreas relacionadas tales como la informática. El primer orden que uno típicamente encuentra en la educación matemática de la escuela primaria es el orden ≤ de los números naturales. Este concepto intuitivo es fácilmente extendido a otros conjuntos de números, tal como los enteros y reales. De hecho la idea de ser mayor o menor que otro número es una de las intuiciones básicas de los sistemas de numeración en general (que uno generalmente se interesa también en la diferencia real de dos números, que no viene dada por el orden). Otro ejemplo popular de un orden es el orden lexicográfico de las palabras en un diccionario.

Los tipos antedichos de orden tienen una propiedad especial: cada elemento se puede comparar con cualquier otro elemento, es decir es o mayor, o menor, o igual. Sin embargo, esto no siempre es un requisito deseable. Un ejemplo bien conocido es el orden de los subconjuntos de un conjunto. Si un conjunto contiene los elementos de cierto otro conjunto, entonces se puede decir que es menor o igual. Con todo, hay conjuntos que pueden no ser comparables de este modo, puesto que cada uno puede contener algún elemento que no esté presente en el otro. Por lo tanto, inclusión de subconjuntos es un orden parcial, en comparación con los órdenes totales dados antes.

Alentadas por los amplios usos prácticos de los órdenes, se pueden definir numerosas clases especiales de conjuntos ordenados, algunas de las cuales han llegado a ser campos matemáticos por sí mismos. Además, la teoría del orden no se restringe a las varias clases de relaciones de orden, sino que también considera funciones apropiadas entre ellas. Un ejemplo simple de una propiedad orden teórica viene del análisis donde encontramos con frecuencia a las funciones monótonas.

[editar] Introducción a las definiciones básicas

Esta sección tiene como objetivo dar una primera guía al reino de los conjuntos ordenados. Está dirigida al lector que tiene un conocimiento básico teoría de conjuntos y aritmética y que sabe qué es una relación binaria, pero que no está familiarizado, hasta ahora, con consideraciones teóricas sobre orden.

[editar] Conjuntos parcialmente ordenados

Como ya se hizo alusión arriba, un orden es una relación binaria especial. Por lo tanto consideremos algún conjunto P y una relación binaria ≤ en P. Entonces ≤ es un orden parcial si es reflexiva, antisimétrica, y transitiva, es decir, para todo a, b y c en P, tenemos que:

aa (reflexividad)si ab y bc entonces ac (transitividad)si ab y ba entonces a = b, (antisimetría).

Un conjunto con un orden parcial se llama conjunto parcialmente ordenado, o, en breve, poset (del inglés partially ordered set). El término conjunto ordenado a veces también se utiliza para los posets, mientras esté claro del contexto que no se quiere significar ninguna otra clase de órdenes. Comprobando esta propiedad, se ve inmediatamente que los bien conocidos órdenes de los naturales, enteros, racionales y reales son todos órdenes en el antedicho sentido. Sin embargo, tienen la propiedad adicional de ser total, es decir, para todo a, b en X

ab o ba (totalidad)

este orden se puede también llamar orden lineal o cadena. mientras que muchos órdenes clásicos son lineales, el orden entre subconjuntos de un conjunto proporciona un ejemplo donde éste no es el caso. De hecho, muchas propiedades avanzadas de los posets son interesantes principalmente para un orden no lineal.

[editar] Visualizando órdenes

Antes de proceder con más ejemplos y definiciones, será provechoso poder exhibir un orden de una manera gráfica conveniente, para proporcionar un "cuadro" que uno pueda tener en mente (o en papel) cuando se intente acceder a conceptos más abstractos. Para este propósito se han introducidos los, así llamados, diagramas de Hasse. Estos son grafos donde los vértices son los elementos del poset y la relación de orden está indicada por las aristas y la posición relativa de los vértices. Los órdenes se dibujan de abajo hacia arriba: si un elemento x es menor que y entonces existe una trayectoria de x hasta y que se dirige hacia arriba. A menudo es necesario que la conexión entre puntos se intersequen, pero los puntos nunca deben ser situados en conexión directa entre otros dos puntos.

Aún los conjuntos infinitos pueden a veces ser ilustrados por diagramas similares, usando puntos suspensivos (...) después de dibujar un suborden finito que sea lo suficientemente instructivo. Esto funciona bien para los números naturales, pero falla para los reales, donde no existe el inmediato sucesor. Sin embargo, frecuentemente se obtiene una intuición relacionada con diagramas de este tipo.

Todos los órdenes antedichos son muy comunes en matemática, sin embargo hay también ejemplos que uno no considera a menudo como órdenes. Por ejemplo, la relación de identidad "=" en un conjunto es un orden parcial. Dentro de este orden, cualesquiera dos (i.e. distintos) elementos son incomparables. Es también la única relación que es un orden parcial y una relación de equivalencia. El diagrama de Hasse de tal orden discreto es solamente una colección de puntos etiquetados, sin ninguna arista entre ellos.

Otro ejemplo viene dado por la relación de divisibilidad "|". Para dos números naturales n y m, escribimos n|m si n divide a m sin resto. Uno ve fácilmente que esto da realmente un orden parcial. Un ejercicio instructivo es dibujar el diagrama de Hasse para el conjunto de los números naturales que son menores o iguales que, digamos, 13, ordenados por |.

[editar] Elementos especiales dentro de un orden

En un conjunto parcialmente ordenado hay algunos elementos que desempeñan un papel especial. El ejemplo más básico está dado por el mínimo de un poset. Por ejemplo, 0 es el mínimo de los números naturales y el conjunto vacío es el mínimo bajo el orden de subconjuntos. Formalmente, esto se puede describir por la propiedad:

0 ≤ a, para todo elemento a del conjunto ordenado.

Es frecuente encontrar la notación 0 para el mínimo, incluso cuando no se refiera a números. Sin embargo, en un orden de un conjunto numérico, esta notación puede ser inadecuada o ambigua, puesto que el número 0 no siempre es el mínimo. Un ejemplo es el antedicho orden de divisibilidad |, donde 1 es el mínimo puesto que divide a todo el resto de números. Por otra parte, 0 es un número que se divide por todo el resto de números. ¡Por lo tanto es el máximo del orden! Otros términos frecuentes para estos elementos son fondo y tapa o cero y uno. Pueden no existir los elementos "mínimo" o "máximo", como demuestra el ejemplo de los números reales. Por otra parte, si existen son siempre únicos. En contraste, consideremos la relación de divisibilidad | en el conjunto {2, 3, 4, 5, 6}. Aunque este conjunto no tiene ni tapa ni fondo, los elementos 2, 3, y 5 no tienen ningún elemento debajo, mientras que 4, 5, y 6 no tienen ninguno otro número arriba. Tales elementos se llaman minimales y maximales, respectivamente. Formalmente, un elemento m es minimal si:

am implica a = m, para todo elemento a.

Intercambiando ≤ con ≥ obtenemos la definición de maximal. Como el ejemplo demuestra, puede haber muchos elementos minimales o maximales y algún elemento puede ser maximal y minimal (e.g. 5 arriba). Sin embargo, si hay un elemento mínimo, entonces es el único elemento minimal del orden. (Si se sigue estrictamente la definición dada. Lamentablemente hay una tradición matemática "a contrario": considerar los minimales y maximales en el conjunto despojado de su máximo y su mínimo, si los hubiere. Esto debe recordarse. N.T.). Una vez más, en los posets no siempre hay infinitos elementos maximales - el conjunto de todos los subconjuntos finitos en un conjunto infinito dado, ordenado por inclusión de subconjuntos, proporciona uno, entre muchos, contraejemplo. Una herramienta importante para asegurar la existencia de elementos maximales bajo ciertas condiciones es el Lema de Zorn.

Los subconjuntos de un conjunto parcialmente ordenado heredan el orden. Ya aplicamos esto al considerar el subconjunto {2, 3, 4, 5, 6} de los números naturales con el orden de divisibilidad inducido. Hay también elementos de un poset que son especiales con respecto a cierto subconjunto del orden. Esto conduce a la definición de cota superior. Dado un subconjunto S de cierto poset P, una cota superior de S es un elemento b de P que está sobre todo elemento de S. Formalmente, esto significa que

sb, para todo s en S.

Cota inferior se define invirtiendo el orden. Por ejemplo, -5 es una cota inferior de los números naturales como subconjunto de los enteros. Dado un conjunto de conjuntos , una cota superior para éstos conjuntos viene dado por su unión. De hecho, esta cota superior es muy especial: es el más pequeño conjunto que contiene todos los conjuntos dados. Por lo tanto, encontramos la menor cota superior de un conjunto de conjuntos. Este concepto se llama también supremo y para un conjunto S se escribe sup S o VS para su menor cota superior. Inversamente, la mayor cota inferior se la conoce como ínfimo y se denota inf S o ^S. Este concepto desempeña un papel importante en muchos usos de la teoría del orden. Para dos elementos x y y, uno también escribe x v y y x ^ y para sup{x, y} e inf{x, y}, respectivamente.

Usando Wikipedia TeX markup, uno puede también escribir vee y wedge, así como símbolos grandes bigvee y bigwedge. Observe, sin embargo, que todos esos símbolos pueden no tener símbolo de tamaño correspondiente al de la fuente del texto estándar y, por tanto, se prefiere utilizarlos en líneas adicionales. Muchos de los navegadores de hoy son incapaces de representar ∨ para v y ∧ para ^ en algunas plataformas, y por lo tanto se evita aquí.

Considere otro ejemplo en la relación | para los números naturales. La menor cota superior de dos números es el menor número que es múltiplo de ambos, es decir el mínimo común múltiplo. Mayor cota inferior es, alternativamente, el máximo común divisor.

[editar] Dualidad

En las anteriores definiciones, a menudo, observamos que un concepto puede ser definido por invertir simplemente el orden en una definición anterior. Este es el caso para "menor" y "mayor", para "mínimo" y "máximo", para "cota superior " y "cota inferior", etcétera. Esto es una situación general en teoría de orden: Un orden dado se puede invertir con solamente intercambiar su dirección, pictóricamente dar vuelta el diagrama de Hasse de arriba para abajo. Esto da el, así llamado, orden dual, inverso u opuesto.

Cada definición orden teórica tiene su dual: es la noción que se obtiene al aplicar la definición al orden inverso. Dada la simetría de todos los conceptos, esta operación preserva los teoremas del orden parcial. Para un resultado matemático dado, se puede, simplemente, invertir el orden y substituir todo definición por su dual y obtener otro teorema válido. Esto es importante y útil, puesto que uno obtiene dos teoremas al precio de uno. Más detalle y ejemplos se pueden encontrar en el artículo sobre dualidad en teoría de orden.

[editar] Construyendo nuevos órdenes

Hay muchas maneras de construir órdenes, o para combinar órdenes en uno nuevo. El orden dual es un primer ejemplo. Otra importante construcción es el producto cartesiano de dos conjuntos parcialmente ordenados, junto con el orden producto en pares de elementos. Esto se define por los órdenes originales haciendo (a, x) ≤ (b, y) si ab y xy. La unión disjunta de dos posets es otra típica construcción, donde el orden es exactamente la unión de los órdenes originales.

Como en el caso del orden usual de números, cada orden parcial ≤ da lugar a un orden estricto <, al definir a < b si ab y no ba. Esta transformación puede ser invertida haciendo ab si a < b o a = b.

[editar] Funciones entre órdenes

Es razonable requerir que las funciones entre conjuntos parcialmente ordenados tengan ciertas propiedades adicionales, que se relacionen con la relación de orden de los dos conjuntos. La condición más fundamental que se presenta en este contexto es la monotonía. Un función f de un poset P a un poset Q es monótona u orden preservante, si ab en P implica f(a) ≤ f(b) en Q. La conversa de esta implicación conduce a una función que es orden reflectante, es decir una función f como arriba para la cuál f(a) ≤ f(b) implica ab. Por otra parte, una función puede también ser orden inversora o antítona, si ab implica f(a) ≥ f(b).

Una inmersión de orden es una función f entre órdenes que es orden preservante y orden reflectante. Ejemplos para esta definición se encuentran fácilmente. Por ejemplo, función que mapea un número natural en su sucesor es claramente monótona con respecto al orden natural. Cualquier función de un orden discreto, es decir un conjunto ordenado por el orden identidad "=", es también monótono. Mapear cada número natural al correspondiente número real da un ejemplo para una inmersión de orden. El complemento conjuntista en un conjunto de partes es un ejemplo de una función antítona.

Una importante pregunta es cuándo dos órdenes son "esencialmente iguales", es decir cuándo son lo mismo salvo retitular elementos. Un isomorfismo de orden es una función que define tal renombrar. Un isomorfismo de orden es una función monótona biyectiva que tiene una inversa monótona. Esto es equivalente a una inmersión de orden sobreyectiva. Por lo tanto, la imagen f(P) de una inmersión de orden es siempre isomorfa a P, lo que justifica el término "inmersión".

Un más elaborado tipo de función es la, así llamada, conexión de Galois. Conexiones de Galois monótonas pueden ser vistas como una generalización de los isomorfismos de orden, puesto que están constituidas por dos funciones en inversa dirección, que no son inversas absolutas una de la otra, pero tienen cercana relación.

Otro tipo especial de endofunción en un poset es el operador de clausura, que no solamente es monotónico, sino también idempotente, es decir. f(x) = f(f(x)), y extensivo, es decir. xf(x). éste tiene mucho uso en todo clase de "clausuras" que aparecen en matemática.

Además de compatible con la mera relación de orden, una función entre posets puede también comportarse bien con respecto a elementos especiales y construcciones. Por ejemplo, cuando se habla de posets con menor elemento, parece razonable considerar solamente una función monotónica que preserve este elemento, es decir que mapee menor elemento en menor elemento. Si el ínfimo binario ^ existe, entonces una propiedad razonable puede ser requerir que f(x^y) = f(x) ^ f(y), para todo x y y. Todas estas propiedades, y de hecho muchas más, pueden ser agrupadas bajo la etiqueta función que preserva límite.

Finalmente, uno puede invertir la visión, cambiar funciones de orden a orden de funciones. De hecho, las funciones entre dos posets P y Q pueden ser ordenadas vía el orden punto a punto. Para dos funciones f y g, se tiene fg si f(x) ≤ g(x) para todo elemento x en P. Esto ocurrirá por ejemplo en teoría de dominios, donde los espacios funcionales desempeñan un importante papel.

[editar] Tipos especiales de orden

Muchas de las estructuras que son estudiadas en teoría de orden emplean relaciónes con propiedades adicionales. De hecho, algunas relaciones que no son de orden parcial son de especial interés. Principalmente, el concepto de preorden tiene que ser mencionado. Un preorden es una relación que es reflexiva y transitiva, pero no necesariamente antisimétrica. Cada preorden induce una relación de equivalencia entre elementos, donde a es equivalente a b, si ab y ab. Los preórdenes pueden ser convertidos en órdenes identificando todo elemento equivalente con respecto a esta relación.

Tipos básicos de órdenes especiales ya se dieron en forma de orden total. Una simple pero útil propiedad adicional conduce al, así llamado, buen orden, dentro del que todo subconjunto no vacío tiene un menor elemento (también denominado primer elemento). Muchos otros tipos de orden se presentan cuando se garantiza la existencia de ínfimos y supremos de ciertos conjuntos. Centrándose en este aspecto, generalmente referido como completitud de órdenes, se obtiene:

  • Posets acotados, es decir posets con menor y mayor elementos (que son precisamente supremo e ínfimo del conjunto vacío),
  • reticulados, en que cada conjunto finito no vacío tiene supremo e ínfimo,

Sin embargo, uno puede ir incluso más allá: si todo ínfimo finito no vacío existe, entonces ^ puede ser visto como una operación binaria total en el sentido del álgebra universal. Por lo tanto, en un reticulado, dos operaciones ^ y v están disponibles, y se puede definir nuevas propiedades dando identidades, tal como

x ^ (y v z) = (x ^ y) v (x ^ z), para todo x, y, y z.

Este condición se llama distributividad y dar lugar a los reticulados distributivos. Hay algunas otras importantes leyes de distributividad que son discutidas en el artículo sobre la distributividad en teorías de orden. Algunas estructuras de orden adicionales que son a menudo especificadas vía operación algebraica y definiendo identidades son

en que ambas introducen una nueva operación ~ llamada negación. Ambas estructuras desempeñan un papel en lógica matemática y especialmente las álgebras de Boole tienen importante uso en informática. Finalmente, varias estructuras en matemática combinan orden con operaciones aún más algebraicas, como el caso de quantales, que permite la definición de una operación de adición.

Existen muchas otras importantes propiedades de los posets. Por ejemplo, un poset es localmente finito si cada intervalo cerrado [a, b] en él es finito. Los posets localmente finitos dan lugar a álgebras de incidencia que alternadamente pueden ser utilizadas para definir característica de Euler de posets finitos acotados.

[editar] Subconjuntos de conjuntos ordenados

En un conjunto ordenado, uno puede definir muchos tipos especiales de subconjuntos basados en el orden dado. Un ejemplo simple son los conjuntos superiores, es decir conjuntos que contienen todo elemento que esté sobre ellos en el orden. Formalmente, la clausura superior de un conjunto S en un poset P viene dado por el conjunto {x en P| hay algún y en S con yx}. Un conjunto que es igual a su clausura superior se llama un conjunto superior. conjunto inferior es definido dualmente.

Subconjuntos inferiores más complicados son los ideales, que tienen la propiedad adicional que cada dos de sus elementos tiene cota superior dentro del ideal. Su noción dual son los filtros. Un concepto relacionado es el de subconjunto dirigido, que como un ideal contiene cota superior de un subconjunto finito, pero no tiene porque ser un conjunto inferior. Además, a menudo se generaliza a conjuntos preordenados.

Un subconjunto que es - como sub-poset - linealmente ordenado, se llama una cadena. La noción opuesta, anticadena, es un subconjunto que no contiene ningún par de elementos comparables, es decir que es un orden discreto.

[editar] Áreas matemáticas relacionadas

aunque la mayoría de las áreas matemáticas usan orden de uno u otra manera, también hay algunas teorías que tienen una relación que va mucho más allá de la mera utilización. Junto con su importante punto de contacto con la teoría de orden, algunas serán presentadas abajo.

[editar] Álgebra universal

Según lo ya mencionado, los métodos y el formalismo del álgebra universal son una herramienta importante para muchas consideraciones orden teóricas. Aparte de formalizar órdenes en términos de estructuras algebraicas que satisfacen ciertas identidades, se pueden también establecer otras conexiones con el álgebra. Un ejemplo es la correspondencia entre las álgebras de Boole y los anillos de Boole. Otros aspectos tienen que ver con la existencia de construcciones libres, tal como los reticulados libres basados en un conjunto de generadores. Además, los operadores de clausura son importantes en el estudio del álgebra universal.

[editar] Topología

En topología el orden desempeña un muy prominente papel. De hecho, el conjunto de los abiertos proporciona un clásico ejemplo de un reticulado completo, más exactamente un álgebra de Heyting completa (o "marco" o "locale"). Los filtros y las redes son nociones relacionadas con la teoría de orden y el operador clausura conjuntista puede ser utilizado para definir una topología. Más allá de esta relación, la topología de puede mirar únicamente en términos del reticulado de conjuntos abiertos, que conduce al estudio de la topología sin puntos. Además, un preorden natural de elementos del conjunto subyacente de una topología viene dada por el, así llamado, orden de especialización, que es realmente un orden parcial si la topología es T0.

Inversamente, en teoría de orden, uno a menudo hace uso de resultados topológicos. Hay varias maneras de definir subconjuntos de un orden que pueden ser considerados como conjunto abiertos de una topología. Especialmente, es interesante considerar topologías en un poset (X, ≤) que reobtiene ≤ como su orden de especialización. La más fina de tales topologías es la topología de Alexandrov, dada al tomar todos los conjuntos superiores ("upper") como abiertos. Inversamente, la más gruesa topología que induce el orden de especialización es la topología superior, que tiene los complementos de los ideales principales (es decir conjuntos de la forma { y en X|yx} para cada x) como una subbase. Adicionalmente, una topología con orden de especialización ≤ puede ser orden consistente, significando que sus conjuntos abiertos son "inaccesibles por supremos dirigidos" (con respecto ≤). La topología más fina de un orden consistente es la topología de Scott, que es más gruesa que la topología de Alexandrov. Una tercera topología importante en esta línea es la topología de Lawson. Hay cercanas conexiones entre estas topologías y los conceptos de la teoría de orden. Por ejemplo, una función preserva supremos dirigidos si y sólo si es continuo con respecto a la topología de Scott (por este razón esta propiedad orden teórica es también llamada continuidad de Scott).

[editar] Teoría de categorías

La visualización de órdenes con diagramas de Hasse tiene una generalización directa: en vez exhibir elemento menores bajo los mayores, la dirección del orden se puede también representar dando la dirección de las aristas del grafo. De esta manera, cada orden se ve como equivalente a un grafo dirigido acíclico, donde los nodos son los elementos del poset y hay una trayectoria dirigida de a a b si y solamente si ab. Eliminando el requisito acíclico, uno puede también obtener todos los preórdenes.

Cuando es equipado con todas las aristas transitivas, estos grafos son solamente categorías especiales, donde los elementos son los objetos y cada conjunto de morfismos entre dos elementos es a lo sumo un singletón. Funciones entre órdenes se convierten en funtores entre categorías. Interesantemente, muchas ideas de la teoría de orden son simplemente pequeñas versiones de los conceptos de la teoría de las categorías. Por ejemplo, un ínfimo es precisamente un producto categórico. Más en general, uno puede subsumir supremos e ínfimos bajo la noción abstracta de un límite categórico (o colímite, respectivamente). Otro lugar en donde las ideas categoriales surgen es el concepto de una conexión de Galois (monótona), que es precisamente igual a un par de funtores adjuntos.

Pero la teoría de las categorías también tiene un impacto en la teoría de orden de mayor escala. Clases de posets con funciones apropiadas según lo discutido arriba forman interesantes categorías. A menudo uno puede también establecer construcción de órdenes, como el orden producto, en término de categoría. Otras intuiciones resultan cuando categorías de orden resultan equivalentes categóricas a otra categoría, por ejemplo de espacios topológicos. Este línea de investigación conduce a varios teoremas de representación, a menudo recogidos bajo la etiqueta dualidad de Stone.

[editar] Esquema de temas relacionados

Teoría del orden
 
Bien ordenado
Orden total
Parcialmente ordenado
Preordenado
Relación reflexiva
Relación transitiva
Relación antisimétrica
Relación total
Orden bien fundamentado
 

[editar] Referencias

  • G. Gierz, K. H. Hofmann, K. Keimel, J. D. Lawson, M. Mislove, and D. S. Scott, Continuous Lattices and Domains, In Encyclopedia of Mathematics and its Applications, Vol. 93, Cambridge University Press, 2003. ISBN 0-521-80338-1

MATEMÁTICAS: MATRIX (MATHEMATICS). Matrices are a key tool in linear algebra. One use of matrices is to represent linear transformations, which are higher-dimensional analogs of linear functions of the form f(x) = cx, where c is a constant; matrix multiplication corresponds to composition of linear transformations. Matrices can also keep track of the coefficients in a system of linear equations. For a square matrix, the determinant and inverse matrix (when it exists) govern the behavior of solutions to the corresponding system of linear equations, and eigenvalues and eigenvectors provide insight into the geometry of the associated linear transformation.

Animatrix (アニマトリックス Animatorikkusu?) es una serie de cortos animados al estilo anime del mundo de ficción de la trilogía The Matrix. Animatrix en sí es un recopilación de 9 cortos creados por famosos dibujantes japoneses, entre estos cortos destaca lo variado en gráficos y originalidad en las historias, basadas en la trilogía estadounidense mencionada.

Obtenido de http://es.wikipedia.org/wiki/The_Animatrix

 

Matrix (mathematics)

From Wikipedia, the free encyclopedia
Jump to: navigation, search
Specific entries of a matrix are often referenced by using pairs of subscripts.

In mathematics, a matrix (plural matrices, or less commonly matrixes) is a rectangular array of numbers, such as

 begin{bmatrix} 1 & 9 & 13  20 & 55 & 4 end{bmatrix}.

An item in a matrix is called an entry or an element. The example has entries 1, 9, 13, 20, 55, and 4. Entries are often denoted by a variable with two subscripts, as shown on the right. Matrices of the same size can be added and subtracted entrywise and matrices of compatible sizes can be multiplied. These operations have many of the properties of ordinary arithmetic, except that matrix multiplication is not commutative, that is, AB and BA are not equal in general. Matrices consisting of only one column or row define the components of vectors, while higher-dimensional (e.g., three-dimensional) arrays of numbers define the components of a generalization of a vector called a tensor. Matrices with entries in other fields or rings are also studied.

Matrices are a key tool in linear algebra. One use of matrices is to represent linear transformations, which are higher-dimensional analogs of linear functions of the form f(x) = cx, where c is a constant; matrix multiplication corresponds to composition of linear transformations. Matrices can also keep track of the coefficients in a system of linear equations. For a square matrix, the determinant and inverse matrix (when it exists) govern the behavior of solutions to the corresponding system of linear equations, and eigenvalues and eigenvectors provide insight into the geometry of the associated linear transformation.

Matrices find many applications. Physics makes use of matrices in various domains, for example in geometrical optics and matrix mechanics; the latter led to studying in more detail matrices with an infinite number of rows and columns. Graph theory uses matrices to keep track of distances between pairs of vertices in a graph. Computer graphics uses matrices to project 3-dimensional space onto a 2-dimensional screen. Matrix calculus generalizes classical analytical notions such as derivatives of functions or exponentials to matrices. The latter is a recurring need in solving ordinary differential equations. Serialism and dodecaphonism are musical movements of the 20th century that use a square mathematical matrix to determine the pattern of music intervals.

A major branch of numerical analysis is devoted to the development of efficient algorithms for matrix computations, a subject that is centuries old but still an active area of research. Matrix decomposition methods simplify computations, both theoretically and practically. For sparse matrices, specifically tailored algorithms can provide speedups; such matrices arise in the finite element method, for example.

Contents

[hide]

[edit] Definition

A matrix is a rectangular arrangement of numbers.[1] For example,

mathbf{A} = begin{bmatrix}  9 & 13 & 6  1 & 11 & 7  3 & 9 & 2  6 & 0 & 7 end{bmatrix}..

An alternative notation uses large parentheses instead of box brackets:

mathbf{A} = begin{pmatrix}  9 & 13 & 6  1 & 11 & 7  3 & 9 & 2  6 & 0 & 7 end{pmatrix}.

The horizontal and vertical lines in a matrix are called rows and columns, respectively. The numbers in the matrix are called its entries or its elements. To specify a matrix's size, a matrix with m rows and n columns is called an m-by-n matrix or m × n matrix, while m and n are called its dimensions. The above is a 4-by-3 matrix.

A matrix with one row (a 1 × n matrix) is called a row vector, and a matrix with one column (an m × 1 matrix) is called a column vector. Any row or column of a matrix determines a row or column vector, obtained by removing all other rows respectively columns from the matrix. For example, the row vector for the third row of the above matrix A is

begin{bmatrix} 3 & 9 & 2  end{bmatrix}.

When a row or column of a matrix is interpreted as a value, this refers to the corresponding row or column vector. For instance one may say that two different rows of a matrix are equal, meaning they determine the same row vector. In some cases the value of a row or column should be interpreted just as a sequence of values (an element of Rn if entries are real numbers) rather than as a matrix, for instance when saying that the rows of a matrix are equal to the corresponding columns of its transpose matrix.

Most of this article focuses on real and complex matrices, i.e., matrices whose entries are real or complex numbers. More general types of entries are discussed below.

[edit] Notation

The specifics of matrices notation varies widely, with some prevailing trends. Matrices are usually denoted using upper-case letters, while the corresponding lower-case letters, with two subscript indices, represent the entries. In addition to using upper-case letters to symbolize matrices, many authors use a special typographical style, commonly boldface upright (non-italic), to further distinguish matrices from other variables. An alternative notation involves the use of a double-underline with the variable name, with or without boldface style, (e.g., underline{underline{A}}).

The entry that lies in the i-th row and the j-th column of a matrix is typically referred to as the i,j, (i,j), or (i,j)th entry of the matrix. For example, the (2,3) entry of the above matrix A is 7. The (i, j)th entry of a matrix A is most commonly written as ai,j. Alternative notations for that entry are A[i,j] or Ai,j.

Sometimes a matrix is referred to by giving a formula for its (i,j)th entry, often with double parenthesis around the formula for the entry, for example, if the (i,j)th entry of A were given by aij, A would be denoted ((aij)).

An asterisk is commonly used to refer to whole rows or columns in a matrix. For example, ai,∗ refers to the ith row of A, and a∗,j refers to the jth column of A. The set of all m-by-n matrices is denoted mathbb{M}(m, n).

A common shorthand is

A = [ai,j]i=1,...,m; j=1,...,n or more briefly A = [ai,j]m×n

to define an m × n matrix A. Usually the entries ai,j are defined separately for all integers 1 ≤ im and 1 ≤ jn. They can however sometimes be given by one formula; for example the 3-by-4 matrix

mathbf A = begin{bmatrix} 0 & -1 & -2 & -3 1 & 0 & -1 & -2 2 & 1 & 0 & -1 end{bmatrix}

can alternatively be specified by A = [ij]i=1,2,3; j=1,...,4, or simply A = ((i-j)), where the size of the matrix is understood.

Some programming languages start the numbering of rows and columns at zero, in which case the entries of an m-by-n matrix are indexed by 0 ≤ im − 1 and 0 ≤ jn − 1.[2] This article follows the more common convention in mathematical writing where enumeration starts from 1.

[edit] Interpretation as a parallelogram

The vectors represented by a matrix can be thought of as the sides of a unit square transformed into a parallelogram. The area of this parallelogram is the absolute value of the determinant of the matrix.

If A is a 2×2 matrix

 A = begin{bmatrix} a & bc & d end{bmatrix},

then the matrix A can be viewed as the transform of the unit square into a parallelogram with vertices at (0,0), (a,b), (a + c, b + d), and (c,d). The assumption here is that a linear transformation is applied to row vectors as the vector-matrix product xTAT, where x is a column vector. The parallelogram in the figure is obtained by multiplying matrix A (which stores the co-ordinates of our parallelogram) with each of the row vectors  begin{bmatrix} 0 & 0 end{bmatrix}, begin{bmatrix} 1 & 0 end{bmatrix}, begin{bmatrix} 1 & 1 end{bmatrix} and begin{bmatrix}0 & 1end{bmatrix} in turn. These row vectors define the vertices of the unit square. With the more common matrix-vector product Ax, the parallelogram has vertices at begin{bmatrix} 0  0  end{bmatrix}, begin{bmatrix} a  c end{bmatrix}, begin{bmatrix} a+b  c+d end{bmatrix} and  begin{bmatrix} b  d end{bmatrix} (note that Ax = (xTAT)T ).

Further, the area of this parallelogram can be viewed as the absolute value of the determinant of the matrix A. When the determinant is equal to one, then the matrix represents an equi-areal mapping.

[edit] Basic operations

There are a number of operations that can be applied to modify matrices called matrix addition, scalar multiplication and transposition.[3] These form the basic techniques to deal with matrices.

OperationDefinitionExample
AdditionThe sum A+B of two m-by-n matrices A and B is calculated entrywise: (A + B)i,j = Ai,j + Bi,j, where 1 ≤ im and 1 ≤ jn.

  begin{bmatrix} 1 & 3 & 1  1 & 0 & 0 end{bmatrix} + begin{bmatrix} 0 & 0 & 5   7 & 5 & 0 end{bmatrix} = begin{bmatrix} 1+0 & 3+0 & 1+5  1+7 & 0+5 & 0+0 end{bmatrix} = begin{bmatrix} 1 & 3 & 6  8 & 5 & 0 end{bmatrix}

Scalar multiplicationThe scalar multiplication cA of a matrix A and a number c (also called a scalar in the parlance of abstract algebra) is given by multiplying every entry of A by c: (cA)i,j = c · Ai,j.2 cdot  begin{bmatrix} 1 & 8 & -3  4 & -2 & 5 end{bmatrix} = begin{bmatrix} 2 cdot 1 & 2cdot 8 & 2cdot -3  2cdot 4 & 2cdot -2 & 2cdot 5 end{bmatrix} = begin{bmatrix} 2 & 16 & -6  8 & -4 & 10 end{bmatrix}
TransposeThe transpose of an m-by-n matrix A is the n-by-m matrix AT (also denoted Atr or tA) formed by turning rows into columns and vice versa: (AT)i,j = Aj,i.  begin{bmatrix} 1 & 2 & 3  0 & -6 & 7 end{bmatrix}^T =  begin{bmatrix} 1 & 0  2 & -6  3 & 7 end{bmatrix}

Familiar properties of numbers extend to these operations of matrices: for example, addition is commutative, i.e. the matrix sum does not depend on the order of the summands: A + B = B + A.[4] The transpose is compatible with addition and scalar multiplication, as expressed by (cA)T = c(AT) and (A + B)T = AT + BT. Finally, (AT)T = A.

Row operations are ways to change matrices. There are three types of row operations: row switching, that is interchanging two rows of a matrix, row multiplication, multiplying all entries of a row by a non-zero constant and finally row addition which means adding a multiple of a row to another row. These row operations are used in a number of ways including solving linear equations and finding inverses.

[edit] Matrix multiplication, linear equations and linear transformations

Schematic depiction of the matrix product AB of two matrices A and B.

Multiplication of two matrices is defined only if the number of columns of the left matrix is the same as the number of rows of the right matrix. If A is an m-by-n matrix and B is an n-by-p matrix, then their matrix product AB is the m-by-p matrix whose entries are given by dot-product of the corresponding row of A and the corresponding column of B:

 [mathbf{AB}]_{i,j} = A_{i,1}B_{1,j} + A_{i,2}B_{2,j} + cdots + A_{i,n}B_{n,j} = sum_{r=1}^n A_{i,r}B_{r,j},

where 1 ≤ im and 1 ≤ jp.[5] For example (the underlined entry 1 in the product is calculated as the product 1 · 1 + 0 · 1 + 2 · 0 = 1):

 begin{align} begin{bmatrix} underline{1} & underline 0 & underline 2  -1 & 3 & 1  end{bmatrix} times begin{bmatrix} 3 & underline 1  2 & underline 1  1 & underline 0  end{bmatrix} &= begin{bmatrix} 5 & underline 1  4 & 2  end{bmatrix}. end{align}

Matrix multiplication satisfies the rules (AB)C = A(BC) (associativity), and (A+B)C = AC+BC as well as C(A+B) = CA+CB (left and right distributivity), whenever the size of the matrices is such that the various products are defined.[6] The product AB may be defined without BA being defined, namely if A and B are m-by-n and n-by-k matrices, respectively, and mk. Even if both products are defined, they need not be equal, i.e. generally one has

ABBA,

i.e., matrix multiplication is not commutative, in marked contrast to (rational, real, or complex) numbers whose product is independent of the order of the factors. An example of two matrices not commuting with each other is:

begin{bmatrix} 1 & 2 3 & 4 end{bmatrix} times begin{bmatrix} 0 & 1 0 & 0 end{bmatrix}= begin{bmatrix} 0 & 1 0 & 3 end{bmatrix},

whereas

begin{bmatrix} 0 & 1 0 & 0 end{bmatrix} times begin{bmatrix} 1 & 2 3 & 4 end{bmatrix}= begin{bmatrix} 3 & 4 0 & 0 end{bmatrix} .

The identity matrix In of size n is the n-by-n matrix in which all the elements on the main diagonal are equal to 1 and all other elements are equal to 0, e.g.

  mathbf{I}_3 = begin{bmatrix} 1 & 0 & 0  0 & 1 & 0  0 & 0 & 1 end{bmatrix}.

It is called identity matrix because multiplication with it leaves a matrix unchanged: MIn = ImM = M for any m-by-n matrix M.

Besides the ordinary matrix multiplication just described, there exist other less frequently used operations on matrices that can be considered forms of multiplication, such as the Hadamard product and the Kronecker product.[7] They arise in solving matrix equations such as the Sylvester equation.

[edit] Linear equations

A particular case of matrix multiplication is tightly linked to linear equations: if x designates a column vector (i.e. n×1-matrix) of n variables x1, x2, ..., xn, and A is an m-by-n matrix, then the matrix equation

Ax = b,

where b is some m×1-column vector, is equivalent to the system of linear equations

A1,1x1 + A1,2x2 + ... + A1,nxn = b1...Am,1x1 + Am,2x2 + ... + Am,nxn = bm .[8]

This way, matrices can be used to compactly write and deal with multiple linear equations, i.e. systems of linear equations.

[edit] Linear transformations

Matrices and matrix multiplication reveal their essential features when related to linear transformations, also known as linear maps. A real m-by-n matrix A gives rise to a linear transformation RnRm mapping each vector x in Rn to the (matrix) product Ax, which is a vector in Rm. Conversely, each linear transformation f: RnRm arises from a unique m-by-n matrix A: explicitly, the (i, j)-entry of A is the ith coordinate of f(ej), where ej = (0,...,0,1,0,...,0) is the unit vector with 1 in the jth position and 0 elsewhere. The matrix A is said to represent the linear map f, and A is called the transformation matrix of f.

The following table shows a number of 2-by-2 matrices with the associated linear maps of R2. The blue original is mapped to the green grid and shapes, the origin (0,0) is marked with a black point.

Horizontal shear with m=1.25.Horizontal flipSqueeze mapping with r=3/2Scaling by a factor of 3/2Rotation by π/6R = 30°
begin{bmatrix} 1 & 1.25   0 & 1 end{bmatrix}begin{bmatrix} -1 & 0   0 & 1 end{bmatrix}begin{bmatrix} 3/2 & 0   0 & 2/3 end{bmatrix}begin{bmatrix} 3/2 & 0   0 & 3/2 end{bmatrix}begin{bmatrix}cos(pi / 6^{R}) & -sin(pi / 6^{R}) sin(pi / 6^{R}) & cos(pi / 6^{R})end{bmatrix}
VerticalShear m=1.25.svgFlip map.svgSqueeze r=1.5.svgScaling by 1.5.svgRotation by pi over 6.svg

Under the 1-to-1 correspondence between matrices and linear maps, matrix multiplication corresponds to composition of maps:[9] if a k-by-m matrix B represents another linear map g : RmRk, then the composition gf is represented by BA since

(gf)(x) = g(f(x)) = g(Ax) = B(Ax) = (BA)x.

The last equality follows from the above-mentioned associativity of matrix multiplication.

The rank of a matrix A is the maximum number of linearly independent row vectors of the matrix, which is the same as the maximum number of linearly independent column vectors.[10] Equivalently it is the dimension of the image of the linear map represented by A.[11] The rank-nullity theorem states that the dimension of the kernel of a matrix plus the rank equals the number of columns of the matrix.[12]

[edit] Square matrices

A square matrix is a matrix which has the same number of rows and columns. An n-by-n matrix is known as a square matrix of order n. Any two square matrices of the same order can be added and multiplied. A square matrix A is called invertible or non-singular if there exists a matrix B such that

AB = In.[13]

This is equivalent to BA = In.[14] Moreover, if B exists, it is unique and is called the inverse matrix of A, denoted A−1.

The entries Ai,i form the main diagonal of a matrix. The trace, tr(A) of a square matrix A is the sum of its diagonal entries. While, as mentioned above, matrix multiplication is not commutative, the trace of the product of two matrices is independent of the order of the factors: tr(AB) = tr(BA).[15]

Also, the trace of a matrix is equal to that of its transpose, i.e. tr(A) = tr(AT).

If all entries outside the main diagonal are zero, A is called a diagonal matrix. If only all entries above (below) the main diagonal are zero, A is called a lower triangular matrix (upper triangular matrix, respectively). For example, if n = 3, they look like

       begin{bmatrix}            d_{11} & 0 & 0             0 & d_{22} & 0             0 & 0 & d_{33}          end{bmatrix} (diagonal),        begin{bmatrix}            l_{11} & 0 & 0             l_{21} & l_{22} & 0             l_{31} & l_{32} & l_{33}          end{bmatrix} (lower) and          begin{bmatrix}            u_{11} & u_{12} & u_{13}             0 & u_{22} & u_{23}             0 & 0 & u_{33}          end{bmatrix} (upper triangular matrix).

[edit] Determinant

A linear transformation on R2 given by the indicated matrix. The determinant of this matrix is −1, as the area of the green parallelogram at the right is 1, but the map reverses the orientation, since it turns the counterclockwise orientation of the vectors to a clockwise one.

The determinant det(A) or |A| of a square matrix A is a number encoding certain properties of the matrix. A matrix is invertible if and only if its determinant is nonzero. Its absolute value equals the area (in R2) or volume (in R3) of the image of the unit square (or cube), while its sign corresponds to the orientation of the corresponding linear map: the determinant is positive if and only if the orientation is preserved.

The determinant of 2-by-2 matrices is given by

det begin{pmatrix}a&bc&dend{pmatrix} = ad-bc,

the determinant of 3-by-3 matrices involves 6 terms (rule of Sarrus). The more lengthy Leibniz formula generalises these two formulae to all dimensions.[16]

The determinant of a product of square matrices equals the product of their determinants: det(AB) = det(A) · det(B).[17] Adding a multiple of any row to another row, or a multiple of any column to another column, does not change the determinant. Interchanging two rows or two columns affects the determinant by multiplying it by −1.[18] Using these operations, any matrix can be transformed to a lower (or upper) triangular matrix, and for such matrices the determinant equals the product of the entries on the main diagonal; this provides a method to calculate the determinant of any matrix. Finally, the Laplace expansion expresses the determinant in terms of minors, i.e., determinants of smaller matrices.[19] This expansion can be used for a recursive definition of determinants (taking as starting case the determinant of a 1-by-1 matrix, which is its unique entry, or even the determinant of a 0-by-0 matrix, which is 1), that can be seen to be equivalent to the Leibniz formula. Determinants can be used to solve linear systems using Cramer's rule, where the division of the determinants of two related square matrices equates to the value of each of the system's variables.[20]

[edit] Eigenvalues and eigenvectors

A number λ and a non-zero vector v satisfying

Av = λv

are called an eigenvalue and an eigenvector of A, respectively.[nb 1][21] The number λ is an eigenvalue of an n×n-matrix A if and only if A−λIn is not invertible, which is equivalent to

det(mathsf{A}-lambda mathsf{I}) = 0. [22]

The function pA(t) = det(AtI) is called the characteristic polynomial of A, its degree is n. Therefore pA(t) has at most n different roots, i.e., eigenvalues of the matrix.[23] They may be complex even if the entries of A are real. According to the Cayley-Hamilton theorem, pA(A) = 0, that is to say, the characteristic polynomial applied to the matrix itself yields the zero matrix.

[edit] Symmetry

A square matrix A that is equal to its transpose, i.e. A = AT, is a symmetric matrix. If instead, A was equal to the negative of its transpose, i.e. A = −AT, then A is a skew-symmetric matrix. In complex matrices, symmetry is often replaced by the concept of Hermitian matrices, which satisfy A = A, where the star or asterisk denotes the conjugate transpose of the matrix, i.e. the transpose of the complex conjugate of A.

By the spectral theorem, real symmetric matrices and complex Hermitian matrices have an eigenbasis; i.e., every vector is expressible as a linear combination of eigenvectors. In both cases, all eigenvalues are real.[24] This theorem can be generalized to infinite-dimensional situations related to matrices with infinitely many rows and columns, see below.

[edit] Definiteness

Matrix A; definiteness; associated quadratic form QA(x,y);
set of vectors (x,y) such that QA(x,y)=1
begin{bmatrix} 1/4 & 0 0 & 1end{bmatrix}begin{bmatrix} 1/4 & 0 0 & -1/4end{bmatrix}
positive definiteindefinite
1/4 x2 + y21/4 x2 − 1/4 y2
Ellipse in coordinate system with semi-axes labelled.svg
Ellipse
Hyperbola2.png
Hyperbola

A symmetric n×n-matrix is called positive-definite (respectively negative-definite; indefinite), if for all nonzero vectors x ∈ Rn the associated quadratic form given by

Q(x) = xTAx

takes only positive values (respectively only negative values; both some negative and some positive values).[25] If the quadratic form takes only non-negative (respectively only non-positive) values, the symmetric matrix is called positive-semidefinite (respectively negative-semidefinite); hence the matrix is indefinite precisely when it is neither positive-semidefinite nor negative-semidefinite.

A symmetric matrix is positive-definite if and only if all its eigenvalues are positive.[26] The table at the right shows two possibilities for 2-by-2 matrices.

Allowing as input two different vectors instead yields the bilinear form associated to A:

BA (x, y) = xTAy.[27]

[edit] Computational aspects

In addition to theoretical knowledge of properties of matrices and their relation to other fields, it is important for practical purposes to perform matrix calculations effectively and precisely. The domain studying these matters is called numerical linear algebra.[28] As with other numerical situations, two main aspects are the complexity of algorithms and their numerical stability. Many problems can be solved by both direct algorithms or iterative approaches. For example, finding eigenvectors can be done by finding a sequence of vectors xn converging to an eigenvector when n tends to infinity.[29]

Determining the complexity of an algorithm means finding upper bounds or estimates of how many elementary operations such as additions and multiplications of scalars are necessary to perform some algorithm, e.g. multiplication of matrices. For example, calculating the matrix product of two n-by-n matrix using the definition given above needs n3 multiplications, since for any of the n2 entries of the product, n multiplications are necessary. The Strassen algorithm outperforms this "naive" algorithm; it needs only n2.807 multiplications.[30] A refined approach also incorporates specific features of the computing devices.

In many practical situations additional information about the matrices involved is known. An important case are sparse matrices, i.e. matrices most of whose entries are zero. There are specifically adapted algorithms for, say, solving linear systems Ax = b for sparse matrices A, such as the conjugate gradient method.[31]

An algorithm is, roughly speaking, numerically stable, if little deviations (such as rounding errors) do not lead to big deviations in the result. For example, calculating the inverse of a matrix via Laplace's formula (Adj (A) denotes the adjugate matrix of A)

A−1 = Adj(A) / det(A)

may lead to significant rounding errors if the determinant of the matrix is very small. The norm of a matrix can be used to capture the conditioning of linear algebraic problems, such as computing a matrix' inverse.[32]

Although most computer languages are not designed with commands or libraries for matrices, as early as the 1970s, some engineering desktop computers such as the HP 9830 had ROM cartridges to add BASIC commands for matrices. Some computer languages such as APL were designed to manipulate matrices, and various mathematical programs can be used to aid computing with matrices.[33]

[edit] Matrix decomposition methods

There are several methods to render matrices into a more easily accessible form. They are generally referred to as matrix transformation or matrix decomposition techniques. The interest of all these decomposition techniques is that they preserve certain properties of the matrices in question, such as determinant, rank or inverse, so that these quantities can be calculated after applying the transformation, or that certain matrix operations are algorithmically easier to carry out for some types of matrices.

The LU decomposition factors matrices as a product of lower (L) and an upper triangular matrices (U).[34] Once this decomposition is calculated, linear systems can be solved more efficiently, by a simple technique called forward and back substitution. Likewise, inverses of triangular matrices are algorithmically easier to calculate. The Gaussian elimination is a similar algorithm; it transforms any matrix to row echelon form.[35] Both methods proceed by multiplying the matrix by suitable elementary matrices, which correspond to permuting rows or columns and adding multiples of one row to another row. Singular value decomposition expresses any matrix A as a product UDV, where U and V are unitary matrices and D is a diagonal matrix.

A matrix in Jordan normal form. The grey blocks are called Jordan blocks.

The eigendecomposition or diagonalization expresses A as a product VDV−1, where D is a diagonal matrix and V is a suitable invertible matrix.[36] If A can be written in this form, it is called diagonalizable. More generally, and applicable to all matrices, the Jordan decomposition transforms a matrix into Jordan normal form, that is to say matrices whose only nonzero entries are the eigenvalues λ1 to λn of A, placed on the main diagonal and possibly entries equal to one directly above the main diagonal, as shown at the right.[37] Given the eigendecomposition, the nth power of A (i.e. n-fold iterated matrix multiplication) can be calculated via

An = (VDV−1)n = VDV−1VDV−1...VDV−1 = VDnV−1

and the power of a diagonal matrix can be calculated by taking the corresponding powers of the diagonal entries, which is much easier than doing the exponentiation for A instead. This can be used to compute the matrix exponential eA, a need frequently arising in solving linear differential equations, matrix logarithms and square roots of matrices.[38] To avoid numerically ill-conditioned situations, further algorithms such as the Schur decomposition can be employed.[39]

[edit] Abstract algebraic aspects and generalizations

Matrices can be generalized in different ways. Abstract algebra uses matrices with entries in more general fields or even rings, while linear algebra codifies properties of matrices in the notion of linear maps. It is possible to consider matrices with infinitely many columns and rows. Another extension are tensors, which can be seen as higher-dimensional arrays of numbers, as opposed to vectors, which can often be realised as sequences of numbers, while matrices are rectangular or two-dimensional array of numbers.[40] Matrices, subject to certain requirements tend to form groups known as matrix groups.

[edit] Matrices with more general entries

This article focuses on matrices whose entries are real or complex numbers. However, matrices can be considered with much more general types of entries than real or complex numbers. As a first step of generalization, any field, i.e. a set where addition, subtraction, multiplication and division operations are defined and well-behaved, may be used instead of R or C, for example rational numbers or finite fields. For example, coding theory makes use of matrices over finite fields. Wherever eigenvalues are considered, as these are roots of a polynomial they may exist only in a larger field than that of the coefficients of the matrix; for instance they may be complex in case of a matrix with real entries. The possibility to reinterpret the entries of a matrix as elements of a larger field (e.g., to view a real matrix as a complex matrix whose entries happen to be all real) then allows considering each square matrix to possess a full set of eigenvalues. Alternatively one can consider only matrices with entries in an algebraically closed field, such as C, from the outset.

More generally, abstract algebra makes great use of matrices with entries in a ring R.[41] Rings are a more general notion than fields in that no division operation exists. The very same addition and multiplication operations of matrices extend to this setting, too. The set M(n, R) of all square n-by-n matrices over R is a ring called matrix ring, isomorphic to the endomorphism ring of the left R-module Rn.[42] If the ring R is commutative, i.e., its multiplication is commutative, then M(n, R) is a unitary noncommutative (unless n = 1) associative algebra over R. The determinant of square matrices over a commutative ring R can still be defined using the Leibniz formula; such a matrix is invertible if and only if its determinant is invertible in R, generalising the situation over a field F, where every nonzero element is invertible.[43] Matrices over superrings are called supermatrices.[44]

Matrices do not always have all their entries in the same ring - or even in any ring at all. One special but common case is block matrices, which may be considered as matrices whose entries themselves are matrices. The entries need not be quadratic matrices, and thus need not be members of any ordinary ring; but their sizes must fulfil certain compatibility conditions.

[edit] Relationship to linear maps

Linear maps RnRm are equivalent to m-by-n matrices, as described above. More generally, any linear map f: VW between finite-dimensional vector spaces can be described by a matrix A = (aij), after choosing bases v1, ..., vn of V, and w1, ..., wm of W (so n is the dimension of V and m is the dimension of W), which is such that

f(mathbf{v}_j) = sum_{i=1}^m a_{i,j} mathbf{w}_iqquadmbox{for }j=1,ldots,n.

In other words, column j of A expresses the image of vj in terms of the basis vectors wi of W; thus this relation uniquely determines the entries of the matrix A. Note that the matrix depends on the choice of the bases: different choices of bases give rise to different, but equivalent matrices.[45] Many of the above concrete notions can be reinterpreted in this light, for example, the transpose matrix AT describes the transpose of the linear map given by A, with respect to the dual bases.[46]

[edit] Matrix groups

A group is a mathematical structure consisting of a set of objects together with a binary operation, i.e. an operation combining any two objects to a third, subject to certain requirements.[47] A group in which the objects are matrices and the group operation is matrix multiplication is called a matrix group.[nb 2][48] Since in a group every element has to be invertible, the most general matrix groups are the groups of all invertible matrices of a given size, called the general linear groups.

Any property of matrices that is preserved under matrix products and inverses can be used to define further matrix groups. For example, matrices with a given size and with a determinant of 1 form a subgroup of (i.e. a smaller group contained in) their general linear group, called a special linear group.[49] Orthogonal matrices, determined by the condition

MTM = I,

form the orthogonal group.[50] They are called orthogonal since the associated linear transformations of Rn preserve angles in the sense that the scalar product of two vectors is unchanged after applying M to them:

(Mv) · (Mw) = v · w.[51]

Every finite group is isomorphic to a matrix group, as one can see by considering the regular representation of the symmetric group.[52] General groups can be studied using matrix groups, which are comparatively well-understood, by means of representation theory.[53]

[edit] Infinite matrices

It is also possible to consider matrices with infinitely many rows and/or columns[54] even if, being infinite objects, one cannot write down such matrices explicitly. All that matters is that for every element in the set indexing rows, and every element in the set indexing columns, there is a well-defined entry (these index sets need not even be subsets of the natural numbers). The basic operations of addition, subtraction, scalar multiplication and transposition can still be defined without problem; however matrix multiplication may involve infinite summations to define the resulting entries, and these are not defined in general.

If infinite matrices are used to describe linear maps, then only those matrices can be used all of whose columns have but a finite number of nonzero entries, for the following reason. For a matrix A to describe a linear map f: VW, bases for both spaces must have been chosen; recall that by definition this means that every vector in the space can be written uniquely as a (finite) linear combination of basis vectors, so that written as a (column) vector v of coefficients, only finitely many entries vi are nonzero. Now the columns of A describe the images by f of individual basis vectors of V in the basis of W, which is only meaningful if these columns have only finitely many nonzero entries. There is no restriction on the rows of A however: in the product A·v there are only finitely many nonzero coefficients of v involved, so every one of its entries, even if it is given as an infinite sum of products, involves only finitely many nonzero terms and is therefore well defined. Moreover this amounts to forming a linear combination of the columns of A that effectively involves only finitely many of them, whence the result has only finitely many nonzero entries, because each of those columns do. One also sees that products of two matrices of the given type is well defined (provided as usual that the column-index and row-index sets match), is again of the same type, and corresponds to the composition of linear maps.

Infinite matrices can also be used to describe operators on Hilbert spaces, where convergence and continuity questions arise, which again results in certain constraints that have to be imposed. However, the explicit point of view of matrices tends to obfuscate the matter,[nb 3] and the abstract and more powerful tools of functional analysis can be used instead.

[edit] Empty matrices

An empty matrix is a matrix in which the number of rows or columns (or both) is zero.[55][56] An empty matrix has no entries but it still has a well defined number of rows and columns, which are needed for instance in the definition of the matrix product. Thus if A is the 3-by-0 matrix A and B is the 0-by-3 matrix B, then AB is the 3-by-3 zero matrix (corresponding to the null map from a 3-dimensional space V to itself obtained obtained as composition gcirc f of the unique map f from V to a 0-dimensional space Z, followed by the zero map g from Z back to V), while BA is the 0-by-0 matrix (corresponding to the unique map from Z to itself obtained as composition fcirc g). There is no common notation for empty matrices but most computer algebra systems will allow creating them and computing with them. Note that the determinant of the 0-by-0 matrix is 1 (and not 0 as might seem more natural): the Leibniz formula produces this value as a sum over the unique permutation of the empty set, with an empty product as term; also the Laplace expansion for a 1-by-1 matrix makes clear that the value of the 0-by-0 minor should be taken to be 1. This value is also consistent with the fact that the identity map from any finite dimensional space to itself has determinant 1, a fact that is often used as a part of the characterization of determinants.

[edit] Applications

There are numerous applications of matrices, both in mathematics and other sciences. Some of them merely take advantage of the compact representation of a set of numbers in a matrix. For example, in game theory and economics, the payoff matrix encodes the payoff for two players, depending on which out of a given (finite) set of alternatives the players choose.[57] Text mining and automated thesaurus compilation makes use of document-term matrices such as tf-idf in order to keep track of frequencies of certain words in several documents.[58]

Complex numbers can be represented by particular real 2-by-2 matrices via

a + ib leftrightarrow begin{bmatrix} a & -b   b & a end{bmatrix},

under which addition and multiplication of complex numbers and matrices correspond to each other. For example, 2-by-2 rotation matrices represent the multiplication with some complex number of absolute value 1, as above. A similar interpretation is possible for quaternions.[59]

Early encryption techniques such as the Hill cipher also used matrices. However, due to the linear nature of matrices, these codes are comparatively easy to break.[60] Computer graphics uses matrices both to represent objects and to calculate transformations of objects using affine rotation matrices to accomplish tasks such as projecting a three-dimensional object onto a two-dimensional screen, corresponding to a theoretical camera observation.[61] Matrices over a polynomial ring are important in the study of control theory.

Chemistry makes use of matrices in various ways, particularly since the use of quantum theory to discuss molecular bonding and spectroscopy. Examples are the overlap matrix and the Fock matrix using in solving the Roothaan equations to obtain the molecular orbitals of the Hartree–Fock method.

[edit] Graph theory

An undirected graph with adjacency matrix begin{bmatrix} 2 & 1 & 0  1 & 0 & 1  0 & 1 & 0 end{bmatrix}.

The adjacency matrix of a finite graph is a basic notion of graph theory.[62] It saves which vertices of the graph are connected by an edge. Matrices containing just two different values (0 and 1 meaning for example "yes" and "no") are called logical matrices. The distance (or cost) matrix contains information about distances of the edges.[63] These concepts can be applied to websites connected hyperlinks or cities connected by roads etc., in which case (unless the road network is extremely dense) the matrices tend to be sparse, i.e. contain few nonzero entries. Therefore, specifically tailored matrix algorithms can be used in network theory.

[edit] Analysis and geometry

The Hessian matrix of a differentiable function ƒ: RnR consists of the second derivatives of ƒ with respect to the several coordinate directions, i.e.[64]

H(f) = left [frac {partial^2f}{partial x_i , partial x_j} right ].

It encodes information about the local growth behaviour of the function: given a critical point x = (x1, ..., xn), i.e., a point where the first partial derivatives partial f / partial x_i of ƒ vanish, the function has a local minimum if the Hessian matrix is positive definite. Quadratic programming can be used to find global minima or maxima of quadratic functions closely related to the ones attached to matrices (see above).[65]

At the saddle point (x = 0, y = 0) (red) of the function f(x,−y) = x2 − y2, the Hessian matrix begin{bmatrix} 2 & 0  0 & -2 end{bmatrix} is indefinite.

Another matrix frequently used in geometrical situations is the Jacobi matrix of a differentiable map f: RnRm. If f1, ..., fm denote the components of f, then the Jacobi matrix is defined as [66]

J(f) = left [frac {partial f_i}{partial x_j} right ]_{1 leq i leq m, 1 leq j leq n}.

If n > m, and if the rank of the Jacobi matrix attains its maximal value m, f is locally invertible at that point, by the implicit function theorem.[67]

Partial differential equations can be classified by considering the matrix of coefficients of the highest-order differential operators of the equation. For elliptic partial differential equations this matrix is positive definite, which has decisive influence on the set of possible solutions of the equation in question.[68]

The finite element method is an important numerical method to solve partial differential equations, widely applied in simulating complex physical systems. It attempts to approximate the solution to some equation by piecewise linear functions, where the pieces are chosen with respect to a sufficiently fine grid, which in turn can be recast as a matrix equation.[69]

[edit] Probability theory and statistics

Two different Markov chains. The chart depicts the number of particles (of a total of 1000) in state "2". Both limiting values can be determined from the transition matrices, which are given by begin{bmatrix}.7&0.3&1end{bmatrix} (red) and begin{bmatrix}.7&.2.3&.8end{bmatrix} (black).

Stochastic matrices are square matrices whose rows are probability vectors, i.e., whose entries sum up to one. Stochastic matrices are used to define Markov chains with finitely many states.[70] A row of the stochastic matrix gives the probability distribution for the next position of some particle which is currently in the state corresponding to the row. Properties of the Markov chain like absorbing states, i.e. states that any particle attains eventually, can be read off the eigenvectors of the transition matrices.[71]

Statistics also makes use of matrices in many different forms.[72] Descriptive statistics is concerned with describing data sets, which can often be represented in matrix form, by reducing the amount of data. The covariance matrix encodes the mutual variance of several random variables.[73] Another technique using matrices are linear least squares, a method that approximates a finite set of pairs (x1, y1), (x2, y2), ..., (xN, yN), by a linear function

yiaxi + b, i = 1, ..., N

which can be formulated in terms of matrices, related to the singular value decomposition of matrices.[74]

Random matrices are matrices whose entries are random numbers, subject to suitable probability distributions, such as matrix normal distribution. Beyond probability theory, they are applied in domains ranging from number theory to physics.[75][76]

[edit] Symmetries and transformations in physics

Linear transformations and the associated symmetries play a key role in modern physics. For example, elementary particles in quantum field theory are classified as representations of the Lorentz group of special relativity and, more specifically, by their behavior under the spin group. Concrete representations involving the Pauli matrices and more general gamma matrices are an integral part of the physical description of fermions, which behave as spinors.[77] For the three lightest quarks, there is a group-theoretical representation involving the special unitary group SU(3); for their calculations, physicists use a convenient matrix representation known as the Gell-Mann matrices, which are also used for the SU(3) gauge group that forms the basis of the modern description of strong nuclear interactions, quantum chromodynamics. The Cabibbo–Kobayashi–Maskawa matrix, in turn, expresses the fact that the basic quark states that are important for weak interactions are not the same as, but linearly related to the basic quark states that define particles with specific and distinct masses.[78]

[edit] Linear combinations of quantum states

The first model of quantum mechanics (Heisenberg, 1925) represented the theory's operators by infinite-dimensional matrices acting on quantum states.[79] This is also referred to as matrix mechanics. One particular example is the density matrix that characterizes the "mixed" state of a quantum system as a linear combination of elementary, "pure" eigenstates.[80]

Another matrix serves as a key tool for describing the scattering experiments which form the cornerstone of experimental particle physics: Collision reactions such as occur in particle accelerators, where non-interacting particles head towards each other and collide in a small interaction zone, with a new set of non-interacting particles as the result, can be described as the scalar product of outgoing particle states and a linear combination of ingoing particle states. The linear combination is given by a matrix known as the S-matrix, which encodes all information about the possible interactions between particles.[81]

[edit] Normal modes

A general application of matrices in physics is to the description of linearly coupled harmonic systems. The equations of motion of such systems can be described in matrix form, with a mass matrix multiplying a generalized velocity to give the kinetic term, and a force matrix multiplying a displacement vector to characterize the interactions. The best way to obtain solutions is to determine the system's eigenvectors, its normal modes, by diagonalizing the matrix equation. Techniques like this are crucial when it comes to the internal dynamics of molecules: the internal vibrations of systems consisting of mutually bound component atoms.[82] They are also needed for describing mechanical vibrations, and oscillations in electrical circuits.[83]

[edit] Geometrical optics

Geometrical optics provides further matrix applications. In this approximative theory, the wave nature of light is neglected. The result is a model in which light rays are indeed geometrical rays. If the deflection of light rays by optical elements is small, the action of a lens or reflective element on a given light ray can be expressed as multiplication of a two-component vector with a two-by-two matrix called ray transfer matrix: the vector's components are the light ray's slope and its distance from the optical axis, while the matrix encodes the properties of the optical element. Actually, there will be two different kinds of matrices, viz. a refraction matrix describing de madharchod refraction at a lens surface, and a translation matrix, describing the translation of the plane of reference to the next refracting surface, where another refraction matrix will apply. The optical system consisting of a combination of lenses and/or reflective elements is simply described by the matrix resulting from the product of the components' matrices.[84]

[edit] Electronics

Traditional mesh analysis in electronics leads to a system of linear equations which can be described with a matrix.

The behaviour of many electronic components can be described using matrices. Let A be a 2-dimensional vector with the component's input voltage v1 and input current i1 as its elements, and let B be a 2-dimensional vector with the component's output voltage v2 and output current i2 as its elements. Then the behaviour of the electronic component can be described by B = H · A, where H is a 2 x 2 matrix containing one impedance element (h12), one admittance element (h21) and two dimensionless elements (h11 and h22). Calculating a circuit now reduces to multiplying matrices.

[edit] History

Matrices have a long history of application in solving linear equations. The Chinese text The Nine Chapters on the Mathematical Art (Jiu Zhang Suan Shu), from between 300 BC and AD 200, is the first example of the use of matrix methods to solve simultaneous equations,[85] including the concept of determinants, over 1000 years before its publication by the Japanese mathematician Seki in 1683[citation needed] and the German mathematician Leibniz in 1693. Cramer presented his rule in 1750.

Early matrix theory emphasized determinants more strongly than matrices and an independent matrix concept akin to the modern notion emerged only in 1858, with Cayley's Memoir on the theory of matrices.[86][87] The term "matrix" was coined by Sylvester, who understood a matrix as an object giving rise to a number of determinants today called minors, that is to say, determinants of smaller matrices which derive from the original one by removing columns and rows. Etymologically, matrix derives from Latin mater (mother).[88]

The study of determinants sprang from several sources.[89] Number-theoretical problems led Gauss to relate coefficients of quadratic forms, i.e., expressions such as x2 + xy − 2y2, and linear maps in three dimensions to matrices. Eisenstein further developed these notions, including the remark that, in modern parlance, matrix products are non-commutative. Cauchy was the first to prove general statements about determinants, using as definition of the determinant of a matrix A = [ai,j] the following: replace the powers ajk by ajk in the polynomial

a_1 a_2 cdots a_n prod_{i < j} (a_j - a_i);,

where Π denotes the product of the indicated terms. He also showed, in 1829, that the eigenvalues of symmetric matrices are real.[90] Jacobi studied "functional determinants"—later called Jacobi determinants by Sylvester—which can be used to describe geometric transformations at a local (or infinitesimal) level, see above; Kronecker's Vorlesungen über die Theorie der Determinanten[91] and Weierstrass' Zur Determinantentheorie,[92] both published in 1903, first treated determinants axiomatically, as opposed to previous more concrete approaches such as the mentioned formula of Cauchy. At that point, determinants were firmly established.

Many theorems were first established for small matrices only, for example the Cayley-Hamilton theorem was proved for 2×2 matrices by Cayley in the aforementioned memoir, and by Hamilton for 4×4 matrices. Frobenius, working on bilinear forms, generalized the theorem to all dimensions (1898). Also at the end of the 19th century the Gauss-Jordan elimination (generalizing a special case now known as Gauss elimination) was established by Jordan. In the early 20th century, matrices attained a central role in linear algebra.[93] partially due to their use in classification of the hypercomplex number systems of the previous century.

The inception of matrix mechanics by Heisenberg, Born and Jordan led to studying matrices with infinitely many rows and columns.[94] Later, von Neumann carried out the mathematical formulation of quantum mechanics, by further developing functional analytic notions such as linear operators on Hilbert spaces, which, very roughly speaking, correspond to Euclidean space, but with an infinity of independent directions.

[edit] Other historical usages of the word "matrix" in mathematics

The word has been used in unusual ways by at least two authors of historical importance.

Bertrand Russell and Alfred North Whitehead in their Principia Mathematica (1910–1913) use the word matrix in the context of their Axiom of reducibility. They proposed this axiom as a means to reduce any function to one of lower type, successively, so that at the "bottom" (0 order) the function will be identical to its extension[disambiguation needed]:

"Let us give the name of matrix to any function, of however many variables, which does not involve any apparent variables. Then any possible function other than a matrix is derived from a matrix by means of generalization, i.e. by considering the proposition which asserts that the function in question is true with all possible values or with some value of one of the arguments, the other argument or arguments remaining undetermined".[95]

For example a function Φ(x, y) of two variables x and y can be reduced to a collection of functions of a single variable, e.g. y, by "considering" the function for all possible values of "individuals" ai substituted in place of variable x. And then the resulting collection of functions of the single variable y, i.e. ∀ai: Φ(ai, y), can be reduced to a "matrix" of values by "considering" the function for all possible values of "individuals" bi substituted in place of variable y:

∀bj∀ai: Φ(ai, bj).

Alfred Tarski in his 1946 Introduction to Logic used the word "matrix" synonymously with the notion of truth table as used in mathematical logic.[96]

[edit] See also

[edit] Notes

  1. ^ Brown 1991, Chapter I.1. Alternative references for this book include Lang 1987b and Greub 1975
  2. ^ Oualline 2003, Ch. 5
  3. ^ Brown 1991, Definition I.2.1 (addition), Definition I.2.4 (scalar multiplication), and Definition I.2.33 (transpose)
  4. ^ Brown 1991, Theorem I.2.6
  5. ^ Brown 1991, Definition I.2.20
  6. ^ Brown 1991, Theorem I.2.24
  7. ^ Horn & Johnson 1985, Ch. 4 and 5
  8. ^ Brown 1991, I.2.21 and 22
  9. ^ Greub 1975, Section III.2
  10. ^ Brown 1991, Definition II.3.3
  11. ^ Greub 1975, Section III.1
  12. ^ Brown 1991, Theorem II.3.22
  13. ^ Brown 1991, Definition I.2.28
  14. ^ Brown 1991, Definition I.5.13
  15. ^ This is immediate from the definition of matrix multiplication. scriptstyleoperatorname{tr}(mathsf{AB}) = sum_{i=1}^m sum_{j=1}^n A_{ij} B_{ji} = operatorname{tr}(mathsf{BA}).
  16. ^ Brown 1991, Definition III.2.1
  17. ^ Brown 1991, Theorem III.2.12
  18. ^ Brown 1991, Corollary III.2.16
  19. ^ Mirsky 1990, Theorem 1.4.1
  20. ^ Brown 1991, Theorem III.3.18
  21. ^ Brown 1991, Definition III.4.1
  22. ^ Brown 1991, Definition III.4.9
  23. ^ Brown 1991, Corollary III.4.10
  24. ^ Horn & Johnson 1985, Theorem 2.5.6
  25. ^ Horn & Johnson 1985, Chapter 7
  26. ^ Horn & Johnson 1985, Theorem 7.2.1
  27. ^ Horn & Johnson 1985, Example 4.0.6, p. 169
  28. ^ Bau III & Trefethen 1997
  29. ^ Householder 1975, Ch. 7
  30. ^ Golub & Van Loan 1996, Algorithm 1.3.1
  31. ^ Golub & Van Loan 1996, Chapters 9 and 10, esp. section 10.2
  32. ^ Golub & Van Loan 1996, Chapter 2.3
  33. ^ For example, Mathematica, see Wolfram 2003, Ch. 3.7
  34. ^ Press, Flannery & Teukolsky 1992
  35. ^ Stoer & Bulirsch 2002, Section 4.1
  36. ^ Horn & Johnson 1985, Theorem 2.5.4
  37. ^ Horn & Johnson 1985, Ch. 3.1, 3.2
  38. ^ Arnold & Cooke 1992, Sections 14.5, 7, 8
  39. ^ Bronson 1989, Ch. 15
  40. ^ Coburn 1955, Ch. V
  41. ^ Lang 2002, Chapter XIII
  42. ^ Lang 2002, XVII.1, p. 643
  43. ^ Lang 2002, Proposition XIII.4.16
  44. ^ Reichl 2004, Section L.2
  45. ^ Greub 1975, Section III.3
  46. ^ Greub 1975, Section III.3.13
  47. ^ See any standard reference in group.
  48. ^ Baker 2003, Def. 1.30
  49. ^ Baker 2003, Theorem 1.2
  50. ^ Artin 1991, Chapter 4.5
  51. ^ Artin 1991, Theorem 4.5.13
  52. ^ Rowen 2008, Example 19.2, p. 198
  53. ^ See any reference in representation theory or group representation.
  54. ^ See the item "Matrix" in Itõ, ed. 1987
  55. ^ "Empty Matrix: A matrix is empty if either its row or column dimension is zero", Glossary, O-Matrix v6 User Guide
  56. ^ "A matrix having at least one dimension equal to zero is called an empty matrix", MATLAB Data Structures
  57. ^ Fudenberg & Tirole 1983, Section 1.1.1
  58. ^ Manning 1999, Section 15.3.4
  59. ^ Ward 1997, Ch. 2.8
  60. ^ Stinson 2005, Ch. 1.1.5 and 1.2.4
  61. ^ Association for Computing Machinery 1979, Ch. 7
  62. ^ Godsil & Royle 2004, Ch. 8.1
  63. ^ Punnen 2002
  64. ^ Lang 1987a, Ch. XVI.6
  65. ^ Nocedal 2006, Ch. 16
  66. ^ Lang 1987a, Ch. XVI.1
  67. ^ Lang 1987a, Ch. XVI.5. For a more advanced, and more general statement see Lang 1969, Ch. VI.2
  68. ^ Gilbarg & Trudinger 2001
  69. ^ Šolin 2005, Ch. 2.5. See also stiffness method.
  70. ^ Latouche & Ramaswami 1999
  71. ^ Mehata & Srinivasan 1978, Ch. 2.8
  72. ^ Healy, Michael (1986), Matrices for Statistics, Oxford University Press, ISBN 9780198507024 
  73. ^ Krzanowski 1988, Ch. 2.2., p. 60
  74. ^ Krzanowski 1988, Ch. 4.1
  75. ^ Conrey 2007
  76. ^ Zabrodin, Brezin & Kazakov et al. 2006
  77. ^ Itzykson & Zuber 1980, Ch. 2
  78. ^ see Burgess & Moore 2007, section 1.6.3. (SU(3)), section 2.4.3.2. (Kobayashi–Maskawa matrix)
  79. ^ Schiff 1968, Ch. 6
  80. ^ Bohm 2001, sections II.4 and II.8
  81. ^ Weinberg 1995, Ch. 3
  82. ^ Wherrett 1987, part II
  83. ^ Riley, Hobson & Bence 1997, 7.17
  84. ^ Guenther 1990, Ch. 5
  85. ^ Shen, Crossley & Lun 1999 cited by Bretscher 2005, p. 1
  86. ^ Cayley 1889, vol. II, p. 475–496
  87. ^ Dieudonné, ed. 1978, Vol. 1, Ch. III, p. 96
  88. ^ Merriam-Webster dictionary, Merriam-Webster, http://www.merriam-webster.com/dictionary/matrix, retrieved April, 20th 2009 
  89. ^ Knobloch 1994
  90. ^ Hawkins 1975
  91. ^ Kronecker 1897
  92. ^ Weierstrass 1915, pp. 271–286
  93. ^ Bôcher 2004
  94. ^ Mehra & Rechenberg 1987
  95. ^ Alfred North Whitehead and Bertrand Russell (1913) Principia Mathematica to *56, Cambridge at the University Press, Cambridge UK (republished 1962) cf page 162ff.
  96. ^ Tarski, Alfred 1946 Introduction to Logic and the Methodology of Deductive Sciences, Dover Publications, Inc, New York NY, ISBN 0-486-28462-X.
  1. ^ Eigen means "own" in German and in Dutch.
  2. ^ Additionally, the group is required to be closed in the general linear group.
  3. ^ "Not much of matrix theory carries over to infinite-dimensional spaces, and what does is not so useful, but it sometimes helps." Halmos 1982, p. 23, Chapter 5

[edit] References

[edit] Physics references

  • Bohm, Arno (2001), Quantum Mechanics: Foundations and Applications, Springer, ISBN 0-387-95330-2 
  • Burgess, Cliff; Moore, Guy (2007), The Standard Model. A Primer, Cambridge University Press, ISBN 0-521-86036-9 
  • Guenther, Robert D. (1990), Modern Optics, John Wiley, ISBN 0-471-60538-7 
  • Itzykson, Claude; Zuber, Jean-Bernard (1980), Quantum Field Theory, McGraw-Hill, ISBN 0-07-032071-3 
  • Riley, K. F.; Hobson, M. P.; Bence, S. J. (1997), Mathematical methods for physics and engineering, Cambridge University Press, ISBN 0-521-55506-X 
  • Schiff, Leonard I. (1968), Quantum Mechanics (3rd ed.), McGraw-Hill 
  • Weinberg, Steven (1995), The Quantum Theory of Fields. Volume I: Foundations, Cambridge University Press, ISBN 0-521-55001-7 
  • Wherrett, Brian S. (1987), Group Theory for Atoms, Molecules and Solids, Prentice-Hall International, ISBN 0-13-365461-3 
  • Zabrodin, Anton; Brezin, Édouard; Kazakov, Vladimir; Serban, Didina; Wiegmann, Paul (2006), Applications of Random Matrices in Physics (NATO Science Series II: Mathematics, Physics and Chemistry), Berlin, New York: Springer-Verlag, ISBN 978-1-4020-4530-1 

[edit] Historical references

[edit] External links

HistoryOnline booksOnline matrix calculators

  

MATEMÁTICAS: POTENCIACIÓN O POTENCIALIDAD. La potenciación es una expresión matemática que incluye dos términos denominados: base a y exponente n.

Potenciación

De Wikipedia, la enciclopedia libre

La potenciación es una expresión matemática que incluye dos términos denominados: base a y exponente n.

Se escribe an, y se lee: «a elevado a n». Su definición varía según el conjunto numérico al que pertenezca el exponente:

  • Cuando el exponente es un número natural, equivale a multiplicar un número por sí mismo varias veces: el exponente determina la cantidad de veces.
a^n = underbrace{a times cdots times a}_n,

Por ejemplo:  2^4 = 2 cdot 2 cdot 2 cdot 2 = 16 .

  • cuando el exponente es un número entero negativo, equivale a la fracción inversa de la base pero con exponente positivo.
a^{-p}= frac{1}{a^p}
  • cuando el exponente es una fracción irreducible n/m, equivale a una raíz:
 a^{frac{n}{m}} = sqrt[m]{a^n}

Cualquier número elevado a 0 equivale a 1, excepto el caso particular de 00 que, en principio, es una indefinición (ver cero).

La definición de potenciación puede extenderse a exponentes reales, complejos o incluso matriciales.

Contenido

[ocultar]

[editar] Propiedades de la potenciación

[editar] Potencia de exponente 0

Un número (distinto de 0) elevado al exponente 0 da como resultado la unidad (1), puesto que:

1 = frac {a^1} {a^1} = a^{1-1} = a^0,

[editar] Potencia de exponente 1

Toda potencia de exponente 1 es igual a la base:

a^1 = a ,

Ejemplo:

54^1=54 ,

[editar] Potencia de exponente negativo

Un número elevado a un exponente negativo, es igual al inverso de la misma expresión pero con exponente positivo:

a^{-n} = a^{0-n} = frac {a^0}{a^n} = frac {1}{a^n},

[editar] Multiplicación de potencias de igual base

El producto de dos o más potencias de igual base es igual a la base elevada a la suma de los correspondientes exponentes (la misma base y se suman los exponentes):

 a^m cdot a^n = a^{m + n}

Ejemplos:

 9^3 cdot 9^2 = 9^{3+2}= 9^5

[editar] División de potencias de igual base

La división de dos potencias de igual base es igual a la base elevada a la resta de los exponentes respectivos:

 frac{a^m}{a^n} = a^{m - n}

Ejemplo:

 frac{9^5}{9^3} = 9^{5-3}= 9^2

[editar] Potencia de un producto

La potencia de un producto es igual al producto de los factores elevados cada uno al exponente de dicha potencia. Es decir, una potencia de base a.b y de exponente n, es igual al factor a elevado a n, multiplicado por el factor b también elevado a n:

(a cdot b)^n=a^n cdot b^n

[editar] Potencia de una potencia

La potencia de una potencia de base a es igual a la potencia de base a y cuyo exponente es el producto de ambos exponentes (la misma base y se multiplican los exponentes):

 {(a^m)}^n = a^{m cdot n}

Debido a esto, la notación a^{b^c} se reserva para significar a^{(b^c)} ya que {(a^b)}^c se puede escribir sencillamente como abc.

[editar] Propiedad distributiva

La potenciación es distributiva con respecto a la multiplicación y a la división:

 (a cdot b)^n = a^n cdot b^n  Big(frac{a}{b}Big)^n = frac{a^n}{b^n}

[editar] Propiedades que no cumple la potenciación

No es distributiva con respecto a la adición y sustracción:

(a + b)^m  neq  a^m + b^m (a - b)^m  neq  a^m - b^m

No cumple la propiedad conmutativa, exceptuando aquellos casos en que base y exponente tienen el mismo valor o son equivalentes. En general:

a^b  neq  b^a

Tampoco cumple la propiedad asociativa:

a^{b^c}=a^{(b^c)}ne (a^b)^c=a^{(bcdot c)}=a^{b c}

[editar] Potencia de base 10

En las potencias con base 10, el resultado será la unidad desplazada tantas posiciones como indique el valor absoluto del exponente: hacia la izquierda si el exponente es positivo, o hacia la derecha si el exponente es negativo.

Ejemplos:

 10^{-5}=0,00001 , 10^{-4}=0,0001 , 10^{-3}=0,001 , 10^{-2}=0,01 , 10^{-1}=0,1 , 10^0=1 , 10^1=10 , 10^2=100 , 10^3=1.000 , 10^4=10.000 , 10^5=100.000 , 10^6=1.000.000 ,

[editar] Potencia de números complejos

Artículo principal: Fórmula de De Moivre

Para cualquiera de los números reales a,b,c,d , se tiene la identidad:

left(a,e^{i,b}right)^{left(c,e^{i,d}right)}=a^{c,cos d},e^{i,left( c,log a,sin d+b,c,cos dright)-b,c,sin d}

[editar] Representación gráfica

gráfico de y = x^2 ,
gráfico de y = x^3 ,

La representación gráfica de una potencia par tiene la forma de una parábola. Su vértice se sitúa en el punto (0, 0), es decreciente en el segundo cuadrante y creciente en el primero.

La representación gráfica de una potencia impar son dos ramas de parábola. Tiene un punto de inflexión en el vértice (0, 0), es siempre creciente, y ocupa el tercer y primer cuadrante.

Dichas curvas son continuas y derivables para todos los reales.

[editar] Límites

[editar] 00

El caso especial 00 se considera indefinido y dependiendo del contexto pueden ser asignados distintos valores dependiendo de las propiedades específicas que se quieran mantener.

Por ejemplo, puede argumentarse que 00 es el igual al valor del límite

lim_{xto 0^+} x^0

y como x0 = 1 para x ne 0, dicho valor podría ser igual a 1. Sin embargo también puede considerarse dicha expresión como el valor del límite

lim_{xto 0^+} 0^x

y como 0x = 0 para x ne 0, dicho valor podría ser igual a 0. Esto ilustra que la forma 00 puede corresponde a diferentes valores y por ello se considera indefinida.

El debate sobre el valor de la forma 00 tiene casi 2 siglos de antigüedad. Durante los primeros días del análisis matemático en que el fundamento formal del cálculo no se había establecido, era común aceptar que 00=1. Sin embargo, en 1821 cuando Cauchy publica el Cours d'Analyse de l'École Royale Polytechnique estableciendo el primer tratamiento riguroso del análisis, lista dicha forma en una tabla de formas indefinidas junto a otras como 0/0. En los 1830s, Libri[1] [2] publicó un argumento para asignar 1 como valor de 00 y August Möbius[3] lo apoyó afirmando erróneamente que

lim_{t to 0^+} f(t)^{g(t)} = 1, siempre que lim_{t to 0^+} f(t) = lim_{t to 0^+} g(t) = 0.

Sin embargo un comentarista que firmó simplemente como «S» proporcionó un contraejemplo

{(e^{-1/t})}^t

cuyo límite cuando tto0^+ es 1 / e, lo cual calmó el debate con la aparente conclusión del incidente que 00 debería permanecer indefinida. Se pueden encontrar más detalles en Knuth (1992).[4]

En la actualidad, suele considerarse la forma 00 como indefinida y no se le asigna valor si no se tiene un contexto en el cual el valor asignado tenga sentido. [5] [6] [7]


Para calcular límites cuyo valor aparente es 00 suele usarse la Regla de l'Hôpital.

[editar] Véase también

[editar] Referencias

  1. Guillaume Libri, Note sur les valeurs de la fonction 00x, Journal für die reine und angewandte Mathematik 6 (1830), 67–72.
  2. Guillaume Libri, Mémoire sur les fonctions discontinues, Journal für die reine und angewandte Mathematik 10 (1833), 303–316.
  3. A. F. Möbius, Beweis der Gleichung 00 = 1, nach J. F. Pfaff, Journal für die reine und angewandte Mathematik 12 (1834), 134–136.
  4. Donald E. Knuth, Two notes on notation, Amer. Math. Monthly 99 no. 5 (May 1992), 403–422.
  5. Peter Alfeld. «Understanding Mathematics» (en inglés). Universidad de Utah. Consultado el 25 de diciembre de 2009. «The problem is similar to that with division by zero. No value can be assigned to 0 to the power 0 without running into contradictions. Thus 0 to the power 0 is undefined!».
  6. Ask Dr. Math. (18 de marzo de 1997). «Why are Operations of Zero so Strange?» (en inglés). The Math forum. Consultado el 25 de diciembre de 2009. «Other indeterminate forms are 0^0, 1^infinity.».
  7. Gentile, Enzo R. (1976) (en español). Notas de Álgebra I (2a edición). Editorial Universitaria de Buenos Aires. pp. 56. «Es útil también definir en el caso x≠0, x0=1. (00 queda indefinido).» 

[editar] Enlaces externos