Blogia
petalofucsia

Matemáticas4

MATEMÁTICAS4: EJERCER EL DOMINIO, EJERCER EL CONTROL DE UNA SITUACIÓN. En matemáticas, el dominio (conjunto de definición o conjunto de partida) de una función es el conjunto de existencia de ella misma, es decir, los valores para los cuales la función está definida.

Dominio de definición

De Wikipedia, la enciclopedia libre

En matemáticas, el dominio (conjunto de definición o conjunto de partida) de una función f colon X to Y , es el conjunto de existencia de ella misma, es decir, los valores para los cuales la función está definida. Es el conjunto de todos los objetos que puede transformar, se denota Dom_f, o bien  D_f, y está definido por:

 D_f = ; left{x in X | exists y in Y: f(x)=yright}

Contenido

[ocultar]

[editar] Propiedades

Dadas dos funciones reales:

f colon X_1 to R, qquad mbox{y}quad g colon X_2 to R,

Se tienen las siguientes propiedades:

  1. D_{(f+g)} = X_1cap X_2
  2. D_{(f-g)} = X_1cap X_2
  3. D_{(fcdot g)} = X_1cap X_2
  4. D_{(f/g)} = {xin (X_1 cap X_2)| g(x) neq 0}

[editar] Ejemplos

Algunos dominios de funciones reales de variable real:

f(x)=x^2 ,! El dominio de esta función es mathbb{R}

f(x)= frac{1}{x} El dominio de esta función es mathbb{R}-lbrace0rbrace puesto que la función no está definida para x = 0.

f(x)= log(x) ,! El dominio de esta función es (0,{+}infty) ya que los logaritmos están definidos sólo para números positivos.

f(x)= sqrt{x} El dominio de esta función es lbrack0,{+}infty) porque la raíz de un número negativo no existe en el campo de los Reales.

[editar] Cálculo del dominio de una función

Para el cálculo certero del dominio de una función, debemos introducir el concepto de restricción en el campo real. Estas restricciones nos ayudarán a identificar la existencia del dominio de una función. Las más usadas son:

[editar] Raíz n-ésima de f(x)

No existe restricción si n es impar, pero si n es par, la función f(x) necesariamente deberá ser mayor no estricto de cero, ya que las raíces negativas no están definidas en el campo real. Por ejemplo:

y= sqrt{7x-21}

El índice de la raíz es par (2), por tanto

7x − 21 > = 0 despejando tenemos que

x>=3 El dominio entonces será el conjunto de todos los reales en el intervalo [3,+∞)

[editar] Logaritmo de f(x)

La restricción está al estudiar las propiedades de los logaritmos las cuales nos dicen que estos no están definidos para números negativos, por tanto toda función contenida dentro de un logaritmo es necesariamente mayor estricto de cero. Por ejemplo:

log(x2 − 9) Por la propiedad anteriormente citada tenemos que para que esta función exista, necesariamente

x2 − 9 > 0 despejando obtendremos dos soluciones x > 3 y x < − 3. La unión de ambas soluciones representa el dominio de la función, que está definida como el conjunto (-∞, -3) U (3, +∞).

[editar] Fracciones

Véase también: División por cero

Otras propiedades de las matemáticas nos pueden ayudar a obtener el dominio de una función y excluir puntos donde esta no está definida, por ejemplo, una función que tenga forma de fracción no estará definida cuando el denominador valga cero, ya que esto es una indeterminación que daría una tendencia al infinito. Veamos

la función y= frac {7-3x}{10x-2} no estará definida cuando 10x − 2 = 0, despejando x = 1 / 5, es decir la variable x debe tener un valor diferente para poder existir, ya que en ese punto no está definida, por tanto el dominio de esta función será el conjunto de todos los reales menos ese punto. Su notación será R-{1/5}, que se lee, el conjunto de todos los reales menos el punto 0,20.

El grado de dificultad se incrementa cuando buscamos el dominio de una función con variable en el denominador contenida dentro de un radical de índice par o logaritmo, ya que esto nos traslada a resolver una desigualdad. No obstante, el método de polos y ceros nos permite resolver esta clase de inecuaciones con facilidad.

[editar] Ejemplo

Para evidenciar este caso veamos este problema. Hallar el dominio de la siguiente función:

f(x) = log left( frac {5x+1}{3x-2} right),!

Para que esta función exista, necesariamente

frac {5x+1}{3x-2}  > 0,!

Ya que no existe logaritmo de expresiones negativas. La solución de esta desigualdad, es explicada paso por paso en el artículo polos y ceros anteriormente citado, su solución constituirá el dominio de la función que en este caso será:

solución: (-∞, -1/5) U (2/3, +∞)

[editar] Véase también

MATEMÁTICAS4: ELEMENTO OPUESTO. En matemáticas, el opuesto (o simétrico para la suma, o inverso aditivo), de un número es el número que, sumado con , da cero. El inverso aditivo de se denota .

Opuesto

De Wikipedia, la enciclopedia libre

En matemáticas, el opuesto (o simétrico para la suma, o inverso aditivo), de un número n , es el número que, sumado con n ,, da cero. El inverso aditivo de n , se denota -n ,.

Por ejemplo:

  • El opuesto de 7 , es -7 ,, porque 7+(-7) = 0 ,;
  • El opuesto de -0,3 , es 0,3 ,, porque -0,3+0,3 = 0 ,.

Así, por el ejemplo anterior, -(-0,3) = 0,3 ,.

Algebraicamente hablando, el opuesto de un elemento de un grupo es su elemento simétrico respecto de la operación binaria "+ ," (cuando se usa la notación aditiva).

Aritméticamente, se lo puede calcular multiplicando por -1 ,, es decir, -n = -1 times n

Conjuntos de números en que cada elemento tiene opuesto:

Conjuntos de números sin opuesto:

Nótese que los números enteros se construyen a partir de los números naturales a los que se añaden formalmente los opuestos.

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS4: INVERSO MULTIPLICATIVO. En matemática, el inverso multiplicativo, recíproco o inversa de un número x, es el número, denotado como 1⁄x ó x −1, que multiplicado por x da 1 como resultado.

Inverso multiplicativo

De Wikipedia, la enciclopedia libre
La función recíproca y = 1/x. Para cada valor de x (eje horizontal) excepto el 0, y (eje vertical) representa su inverso multiplicativo.

En matemática, el inverso multiplicativo, recíproco o inversa de un número x, es el número, denotado como 1x ó x −1, que multiplicado por x da 1 como resultado.

El 0 no tiene inverso multiplicativo. Todo número complejo, salvo el 0, tiene un inverso que es un número complejo. El inverso de un número real también es real, y el de un número racional también es racional.

Para obtener una aproximación del inverso multiplicativo de x, empleando únicamente la multiplicación y la resta, se puede empezar con un número y (una primera aproximación), y reemplazar y por 2y-xy2. Una vez que la variación entre dos iteraciones sucesivas de y se haga lo suficientemente pequeña (y se mantenga pequeña), y será una aproximación del inverso de x.

Es decir:

  • Si tenemos Y/X su inverso multiplicativo es X/Y; o bien
  • Si tenemos X su inverso multiplicativo es 1/X.

[editar] Inverso multiplicativo en otros objetos matemáticos

El inverso multiplicativo es aplicable a distintos tipos de objetos matemáticos.

  • La inversa de una función es la resultante de despejar la variable independiente, convirtiéndola en dependiente. Gráficamente es un trazado paralelo a la recta diagonal y = x.
  • En las matemáticas constructivas, para que un número real x tenga inverso, no es suficiente que sea falso que x = 0. Además, debe existir un número racional r tal que 0 < r < |x|.

En cuanto al algoritmo de aproximación presentado en el párrafo anterior, esto es necesario para demostrar que la variación en y llegará a ser arbitrariamente pequeña.

  • En las aritmética modular, el inverso multiplicativo de x también está definido: es el número a tal que (a × x) mod n = 1. Sin embargo, este inverso multiplicativo sólo existe si a y n son primos entre sí. Por ejemplo, el inverso de 3 módulo 11 es 4, porque es la solución de (3 × x) mod 11 = 1. Un algoritmo empleado para el cálculo de inversos modulares es el Algoritmo extendido de Euclides.

[editar] Véase también

MATEMÁTICAS4: EL DESEQUILIBRIO SE RELACIONA CON "LA PERTURBACIÓN" Y LA "ASIMETRÍA". Asimetría se refiere a la propiedad de determinados cuerpos, funciones matemáticas y otros tipos de elementos en los que, al aplicarles una regla de transformación efectiva, se observan cambios respecto al elemento original. Surge una discordia cuando no somos capaces de reconocer qué parte es la original de la asimetría.

Asimetría

De Wikipedia, la enciclopedia libre
Asymmetric (PSF).png
Diccionario de sinónimos y antónimos © 2005 Espasa-Calpe:

asimetría

  • irregularidad, desigualdad, desproporción, desequilibrio, anomalía, deformidad, disimetría
    • Antónimos: simetría, equilibrio
  •  

'ASIMETRIA' también aparece en estas entradas
English:

Diccionario de la lengua española © 2005 Espasa-Calpe:

simetría

  1. f. Armonía de posición de las partes o puntos similares unos respecto de otros,y con referencia a punto,línea o plano determinado:
    nunca hay una perfecta simetría entre los dos lados del cuerpo humano.
  2. Proporción adecuada de las partes de un todo entre sí y con el todo mismo:
    las ventanas de una casa deben guardar cierta simetría.

Preguntas en los foros con la(s) palabra(s) 'SIMETRIA' en el título:

'SIMETRIA' también aparece en estas entradas
English:
Aquí vuelve a aparecer el término "desproporción", relacionado con la "medida":
Diccionario de sinónimos y antónimos © 2005 Espasa-Calpe:

simetría

  • disposición, proporción, armonía, correspondencia, ritmo, equilibrio, perfección, semejanza, igualdad, paridad, regularidad, relación, compensación
    • Antónimos: desequilibrio, desproporción
  •  

'SIMETRIA' también aparece en estas entradas

simetría.

(Del lat. symmetrĭa, y este del gr. συμμετρία).

 

1. f. Correspondencia exacta en forma, tamaño y posición de las partes de un todo.

2. f. Biol. Correspondencia que se puede distinguir, de manera ideal, en el cuerpo de una planta o de un animal respecto a un centro, un eje o un plano, de acuerdo con los cuales se disponen ordenadamente órganos o partes equivalentes.

3. f. Geom. Correspondencia exacta en la disposición regular de las partes o puntos de un cuerpo o figura con relación a un centro, un eje o un plano.

V.

centro de simetría

eje de simetría

plano de simetría



Real Academia Española © Todos los derechos reservados

 

Asimetría se refiere a la propiedad de determinados cuerpos, funciones matemáticas y otros tipos de elementos en los que, al aplicarles una regla de transformación efectiva, se observan cambios respecto al elemento original. Surge una discordia cuando no somos capaces de reconocer qué parte es la original de la asimetría.

[editar] Características

Además de la posición y la dispersión de un conjunto de datos, es común usar medidas de forma en su descripción. Una de estas medidas es una estadística que busca expresar la simetría (o falta de ella) que manifiestan los datos, denominada coeficiente de asimetría.

La diferencia de una observación respecto del promedio de los datos se encuentra elevada al cubo. Esto tiene como resultado que, observaciones alejadas del promedio, aportan un gran valor a la suma; ya sea positivo o negativo. En consecuencia, si los grandes valores de la diferencia están producidos por datos mayores que el promedio, el coeficiente tenderá a ser positivo. Si, por el contrario, predominan observaciones muy menores que el promedio, el coeficiente será negativo. Si, finalmente, las observaciones presentan un alto grado de simetría respecto al promedio, el coeficiente asumirá valores cercanos a cero o a un infinito que estcorrelacionado con el número de la varianza o el intervalo de clase, o se declara en forma racional con el cojunto matematico de medidas longitudinales.

Si el valor de este coeficiente es mayor que la varianza entonces se dice que la distribución de los datos se encuentra sesgada a la derecha o a la izquierda, si es menor que el intervalo de clase entonces se dice que está sesgada a la posición anterior.

MATEMÁTICAS4: CON EL TIEMPO SE PODRÍA PROFUNDIZAR EN EL ESTUDIO DE LAS "PERTURBACIONES" COMO CAUSANTES DE ENFERMEDADES Y DE TANTOS DESEQUILIBRIOS...

Teoría perturbacional

De Wikipedia, la enciclopedia libre

En mecánica cuántica, la teoría perturbacional o teoría de perturbaciones es un conjunto de esquemas aproximados para describir sistemas cuánticos complicados en términos de otros más sencillos. La idea es empezar con un sistema simple y gradualmente ir activando hamiltonianos "perturbativos", que representan pequeñas alteraciones al sistema. Si la alteración o perturbación no es demasiado grande, las diversas magnitudes físicas asociadas al sistema perturbado (por ejemplo sus niveles de energía y sus estados propios) podrán ser generados de forma continua a partir de los del sistema sencillo. De esta forma, podemos estudiar el sistema complejo basándonos en el sistema sencillo.

En particular al estudiar las energías de un sistema físico, el método consiste en identificar dentro del Hamiltoniano (perturbado) qué parte de éste corresponde a un problema con solución conocida (Hamiltoniano no perturbado en caso que su solución sea analítica) y considerar el resto como un potencial que modifica al anterior Hamiltoniano. Dicha identificación permite escribir a los autoestados del Hamiltoniano perturbado como una combinación lineal de los autoestados del Hamiltoniano sin perturbar y a las autoenergías como las autoenergías del problema sin perturbar más términos correctivos.

Contenido

[ocultar]

[editar] Procedimiento

[editar] Caso no degenerado

Sea H , el Hamiltoniano de un sistema físico. De acuerdo con lo antes mencionado, el mismo se puede escribir como hat H=hat H_0+lambda hat V, donde hat H_0 corresponde al Hamiltoniano sin pertubar (cuyas soluciones se conocen) y hat V es el potencial que modifica a H_0 ,. El parámetro lambda , controla la magnitud de la perturbación. En general es un parámetro ficticio que se usa por conveniencia matemática y que al final del análisis se toma lambda=1 ,. Por otro lado, los autoestados de H , se escriben como una combinación lineal de los autoestados de H_0 ,

|psi_nrangle=sum_msum_klambda^kc^{(k)}_{nm}|psi^{(0)}_mrangle

y las energías como

E_n=sum_klambda^kE_n^{(k)}

donde E_n^{(k)} es la k-ésima corrección a la energía. El índice k , indica el orden de la corrección comenzando por k=0 ,. Es decir, cuanto mayor sea k ,, mejor aproximación se tendrá y para k=0 , no hay corrección alguna. En las anteriores expresiones se ha supuesto que

H_0|psi^{(0)}_nrangle=E^{(0)}_n|psi^{(0)}_nrangle y H|psi_nrangle=E_n|psi_nrangle

Si reemplazamos las expresiones para H, En y |psi_nrangle en la segunda ecuación de la anterior línea se tiene

H|psi_nrangle=E_n|psi_nrangle(H_0+lambda V)sum_msum_klambda^kc^{(k)}_{nm}|psi^{(0)}_mrangle=(sum_{k_1}lambda^{k_1}E_n^{(k_1)})sum_{m'}sum_{k_2}lambda^{k_2}c^{(k_2)}_{nm'}|psi^{(0)}_{m'}ranglesum_ksum_mlambda^kc^{(k)}_{nm}(E^{(0)}_m+lambda V)|psi^{(0)}_mrangle=sum_{k_1}sum_{k_2}sum_{m'}E_n^{(k_1)}lambda^{k_1+k_2}c^{(k_2)}_{nm'}|psi^{(0)}_{m'}ranglesum_ksum_mlambda^kc^{(k)}_{nm}(E^{(0)}_m+lambda V)|psi^{(0)}_mrangle=sum_{k_1,k_2}sum_{m'}E_n^{(k_1)}lambda^{k_1+k_2}c^{(k_2)}_{nm'}|psi^{(0)}_{m'}ranglesum_mc^{(0)}_{nm}E^{(0)}_m|psi_m^{(0)}rangle+sum_{k=1}sum_mlambda^k(c^{(k)}_{nm}E^{(0)}_m+c^{(k-1)}_{nm} V)|psi^{(0)}_mrangle=sum_{m'}c^{(0)}_{nm'}E^{(0)}_n|psi_{m'}^{(0)}rangle+sum_{k_1+k_2=1}sum_{m'}E_n^{(k_1)}lambda^{k_1+k_2}c^{(k_2)}_{nm'}|psi^{(0)}_{m'}ranglesum_mc^{(0)}_{nm}(E^{(0)}_m-E^{(0)}_n)|psi_m^{(0)}rangle+sum_{k=1}sum_mlambda^k(c^{(k)}_{nm}E^{(0)}_m+c^{(k-1)}_{nm}V)|psi^{(0)}_mrangle=sum_{k_1+k_2=1}sum_{m'}E_n^{(k_1)}lambda^{k_1+k_2}c^{(k_2)}_{nm'}|psi^{(0)}_{m'}rangle

Esta igualdad se debe satisfacer para todo orden de λ. El primer término del lado izquierdo de la última línea corresponde al orden k = 0 y debe ser idénticamente nulo ya que del lado derecho de la igualdad no existen términos de dicho orden en λ. Esto implica que, para que toda la suma se anule, los c^{(0)}_{nm}=delta_{nm}, donde δnm es la delta de Kronecker.

Por otro lado, cuando k = 1 se tiene en el lado izquierdo el primer orden de λ que se obtiene en el lado derecho cuando k1 + k2 = 1, es decir cuando k_1=1wedge k_2=0 o bien cuando k_1=0wedge k_2=1. Por lo tanto se tiene

sum_m(c^{(1)}_{nm}E^{(0)}_m+c^{(0)}_{nm}V)|psi^{(0)}_mrangle=sum_{m'}(E_n^{(1)}c^{(0)}_{nm'}+E_n^{(0)}c^{(1)}_{nm'})|psi^{(0)}_{m'}rangle

Para el segundo orden, k = 2 y k_1=2wedge k_2=0, k_1=1wedge k_2=1 y k_1=0wedge k_2=2, entonces

sum_m(c^{(2)}_{nm}E^{(0)}_m+c^{(1)}_{nm}V)|psi^{(0)}_mrangle=sum_{m'}(E_n^{(2)}c^{(0)}_{nm'}+E_n^{(1)}c^{(1)}_{nm'}+ E_n^{(0)}c^{(2)}_{nm'})|psi^{(0)}_{m'}rangle

Para el tercer orden, k = 3 y k_1=3wedge k_2=0, k_1=2wedge k_2=1, k_1=1wedge k_2=2 y k_1=0wedge k_2=0, entonces

sum_m(c^{(3)}_{nm}E^{(0)}_m+c^{(2)}_{nm}V)|psi^{(0)}_mrangle=sum_{m'}(E_n^{(3)}c^{(0)}_{nm'}+E_n^{(2)}c^{(1)}_{nm'}+ E_n^{(1)}c^{(2)}_{nm'}+E_n^{(0)}c^{(3)}_{nm'})|psi^{(0)}_{m'}rangle

y así sucesivamente hasta el orden que se desee. A partir de las anterior igualdades es posible calcular todos los coeficientes c^{(k)}_{nm} de las combinaciones lineales y las correcciones a las energías E^{k}_n. Para obtenerlas se procede del siguiente modo: primero se usa el hecho que c^{(0)}_{nm}=delta_{nm} con lo cual, para los tres órdenes respectivamente se tiene,

sum_mc^{(1)}_{nm}E^{(0)}_m|psi^{(0)}_mrangle+V|psi^{(0)}_nrangle=E_n^{(1)}|psi^{(0)}_nrangle+sum_{m'}E_n^{(0)}c^{(1)}_{nm'}|psi^{(0)}_{m'}ranglesum_m(c^{(2)}_{nm}E^{(0)}_m+c^{(1)}_{nm}V)|psi^{(0)}_mrangle=E_n^{(2)}|psi^{(0)}_nrangle+sum_{m'}(E_n^{(1)}c^{(1)}_{nm'}+ E_n^{(0)}c^{(2)}_{nm'})|psi^{(0)}_{m'}ranglesum_m(c^{(3)}_{nm}E^{(0)}_m+c^{(2)}_{nm}V)|psi^{(0)}_mrangle=E_n^{(3)}|psi^{(0)}_nrangle+sum_{m'}(E_n^{(2)}c^{(1)}_{nm'}+ E_n^{(1)}c^{(2)}_{nm'}+E_n^{(0)}c^{(3)}_{nm'})|psi^{(0)}_{m'}rangle

Para hallar las correcciones a la energía se debe multiplicar por el bra langlepsi^{(0)}_n| y usar que langlepsi^{(0)}_n|psi^{(0)}_nrangle=1, obteniéndose entonces

c^{(1)}_{nn}E^{(0)}_n+langlepsi^{(0)}_n|V|psi^{(0)}_nrangle=E_n^{(1)}+E_n^{(0)}c^{(1)}_{nn}c^{(2)}_{nn}E^{(0)}_n+sum_mc^{(1)}_{nm}langlepsi^{(0)}_n|V|psi^{(0)}_mrangle=E_n^{(2)}+(E_n^{(1)}c^{(1)}_{nn}+ E_n^{(0)}c^{(2)}_{nn})c^{(3)}_{nn}E^{(0)}_n+sum_mc^{(2)}_{nm}langlepsi^{(0)}_n|V|psi^{(0)}_mrangle=E_n^{(3)}+(E_n^{(2)}c^{(1)}_{nn}+ E_n^{(1)}c^{(2)}_{nn}+E_n^{(0)}c^{(3)}_{nn})

Reordenando las anteriores expresiones y despejando para la corrección deseada se tiene

E_n^{(1)}=langlepsi^{(0)}_n|V|psi^{(0)}_nrangleE_n^{(2)}=sum_mc^{(1)}_{nm}langlepsi^{(0)}_n|V|psi^{(0)}_mrangle-E_n^{(1)}c^{(1)}_{nn}E_n^{(3)}=sum_mc^{(2)}_{nm}langlepsi^{(0)}_nV|psi^{(0)}_mrangle-(E_n^{(2)}c^{(1)}_{nn}+ E_n^{(1)}c^{(2)}_{nn})

De este modo se han obtenido las correcciones para las energías en términos de relaciones recursivas partiendo de la primera corrección cuyo valor es el elemento de matriz E_n^{(1)}=langlepsi^{(0)}_n|V|psi^{(0)}_nrangle. Las correcciones también dependen de los coeficientes de las combinaciones lineales. Estos pueden ser hallados con un razonamiento similar, en efecto, si en vez de haber multiplicar por langlepsi^{(0)}_n| se multiplica por langlepsi^{(0)}_l| con lneq n se tiene

c^{(1)}_{nl}E^{(0)}_l+langlepsi^{(0)}_l|V|psi^{(0)}_nrangle=E_n^{(0)}c^{(1)}_{nl}c^{(2)}_{nl}E^{(0)}_l+sum_mc^{(1)}_{nm}langlepsi^{(0)}_l|V|psi^{(0)}_mrangle=E_n^{(1)}c^{(1)}_{nl}+ E_n^{(0)}c^{(2)}_{nl}c^{(3)}_{nl}E^{(0)}_l+sum_mc^{(2)}_{nm}langlepsi^{(0)}_l|V|psi^{(0)}_mrangle=E_n^{(2)}c^{(1)}_{nl}+ E_n^{(1)}c^{(2)}_{nl}+E_n^{(0)}c^{(3)}_{nl}

Reordenando para este caso

c^{(1)}_{nl}=frac{langlepsi^{(0)}_l|V|psi^{(0)}_nrangle}{E_n^{(0)}-E^{(0)}_l}c^{(2)}_{nl}=frac{sum_mc^{(1)}_{nm}langlepsi^{(0)}_l|V|psi^{(0)}_mrangle-E_n^{(1)}c^{(1)}_{nl}}{E_n^{(0)}-E^{(0)}_l}c^{(3)}_{nl}=frac{sum_mc^{(2)}_{nm}langlepsi^{(0)}_l|V|psi^{(0)}_mrangle-(E_n^{(2)}c^{(1)}_{nl}+ E_n^{(1)}c^{(2)}_{nl})}{E_n^{(0)}-E^{(0)}_l}

Los coeficientes c^{(k)}_{nn} se calculan por normalización del estado |psi_nrangle. Una vez obtenidos todos los coeficientes y las correcciones a la energía del orden deseado se los reemplaza en las expresiones expuestas inicialmente para determinar los autoestados de H y las autoenergías de dicho operados, respectivamente.

Por ejemplo, si se desea calcular la corrección para la energía a primer orden y los autoestados correspondientes, las expresiones

|psi_nrangle=sum_msum_klambda^kc^{(k)}_{nm}|psi^{(0)}_mrangle y E_n=sum_klambda^kE_n^{(k)}

se cortan para k = 1 quedando

|psi_nrangle=sum_mc^{(0)}_{nm}|psi^{(0)}_mrangle+sum_mc^{(1)}_{nm}|psi^{(0)}_mrangle y E_n=E_n^{(0)}+E_n^{(1)}

luego, se reemplazan los resultados antes hallados

|psi_nrangle=(1+c^{(1)}_{nn})|psi^{(0)}_nrangle+sum_{mneq n}frac{langlepsi^{(0)}_l|V|psi^{(0)}_nrangle}{E_n^{(0)}-E^{(0)}_l}|psi^{(0)}_mrangle y E_n=E_n^{(0)}+langlepsi^{(0)}_n|V|psi^{(0)}_nrangle

y se obtienen las aproximaciones de los estados y las energías para el problema con la perturbación V.

[editar] Teoría de perturbaciones de muchos cuerpos

También llamada "teoría de perturbaciones de Möller-Plesset" y "teoría de perturbaciones de Rayleigh y Schrödinger", por sus usos tempranos en mecánica cuántica, se le llama "de muchos cuerpos" por su popularidad entre los físicos que trabajan con sistemas infinitos. Para ellos, la consistencia con la talla del problema, que se discute más abajo, es una cuestión de gran importancia, obviamente.

[editar] Representación diagramática y consistencia con la talla del problema

La teoría perturbacional es, como la interacción de configuraciones, un procedimiento sistemático que se puede usar para encontrar la energía de correlación, más allá del nivel Hartree-Fock. La teoría de perturbaciones no es un método variacional, con lo que no da cotas superiores de la energía, sino solamente aproximaciones sucesivamente mejores. En cambio, sí que es consistente con la talla del problema (esto es: la energía de las energías calculadas para dos sistemas es igual a la energía calculada para el sistema suma).

R. P. Feynman ideó una representación diagramática de la teoría de perturbaciones de Rayleigh y Schrödinger, y la aplicó en sus trabajos de electrodinámica cuántica. Inspirado por él, J. Goldstone usó estas representaciones para demostrar la consistencia de la talla (mostró que ciertas contribuciones, que aparentemente rompían la consistencia, se anulaban sistemáticamente a cualquier orden de perturbación).

Con ayuda de estas mismas representaciones, H. P. Kelly llevó a cabo por primera vez la aproximación del par electrónico independiente, sumando ciertas partes de la perturbación (ciertos diagramas) hasta un orden infinito.

[editar] Aplicaciones de la teoría perturbacional

La teoría perturbacional es una herramienta extremadamente importante para la descripción de sistemas cuánticos reales, ya que es muy difícil encontrar soluciones exactas a la ecuación de Schrödinger a partir de hamiltonianos de complejidad moderada. De hecho, la mayoría de los hamiltonianos para los que se conocen funciones exactas, como el átomo de hidrógeno, el oscilador armónico cuántico y la partícula en una caja están demasiado idealizados como para describir a sistemas reales. A través de la teoría de las perturbaciones, es posible usar soluciones de hamiltonianos simples para generar soluciones para un amplio espectro de sistemas complejos. Por ejemplo, añadiendo un pequeño potencial eléctrico perturbativo al modelo mecanocuántico del átomo de hidrógeno, se pueden calcular las pequeñas desviaciones en las líneas espectrales del hidrógeno causadas por un campo eléctrico (el efecto Stark). (Hay que notar que, estrictamente, si el campo eléctrico externo fuera uniforme y se extendiera al infinito, no habría estado enlazado, y los electrones terminarían saliendo del átomo por efecto túnel, por débil que fuera el campo. El efecto Stark es una pseudoaproximación.)

Las soluciones que produce la teoría perturbacional no son exactas, pero con frecuencia son extremadamente acertadas. Típicamente, el resultado se expresa en términos de una expansión polinómica infinita que converge rápidamente al valor exacto cuando se suma hasta un grado alto (generalmente, de forma asintótica). En la teoría de la electrodinámica cuántica, en la que la interacción electrón - fotón se trata pertrubativamente, el cálculo del momento magnético del electrón está de acuerdo con los resultados experimentales hasta las primeras 11 cifras significativas. En electrodinámica cuántica y en teoría cuántica de campos, se usan técnicas especiales de cálculo, conocidas como diagramas de Feynman, para sumar de forma sistemática los términos de las series polinómicas.

Bajo ciertas circunstancias, la teoría perturbacional no es camino adecuado. Este es el caso cuando el sistema en estudio no se puede describir por una pequeña perturbación impuesta a un sistema simple. En cromodinámica cuántica, por ejemplo, la interacción de los quarks con el campo de los gluones no puede tratarse perturbativamente a bajas energías, porque la energía de interacción se hace demasiado grande. La teoría de perturbaciones tampoco puede describir estados con una generación no-continua, incluyendo estados enlazados y varios fenómenos colectivos como los solitones. Un ejemplo sería un sistema de partículas libres (sin interacción), en las que se introduce una interacción atractiva. Dependiendo de la forma de la interacción, se puede generar un conjunto de estados propios completamente nuevo, que correspondería a grupos de partículas enlazadas unas a otras. Un ejemplo de este fenómeno puede encontrarse en la superconductividad convencional, en la que la atracción entre electrones de conducción mediada por fonones lleva a la formación de electrones fuertemente correlacionados, conocidos como pares de Cooper. Con este tipo de sistemas, se debe usar otros esquemas de aproximación, como el método variacional o la aproximación WKB.

El problema de los sistemas no perturbativos ha sido aliviado por el advenimiento de los ordenadores modernos. Ahora es posible obtener soluciones numéricas, no perturbativas para ciertos problemas, usando métodos como la Teoría del Funcional de la Densidad (DFT). Estos avances han sido de particular utilidad para el campo de la química cuántica. También se han usado ordenadores para llevar a cabo cálculos de teoría perturbacional a niveles extraordinariamente altos de precisión, algo importante en física de partículas para obtener resultados comparables a los resultados experimentales.

[editar] Véase también

MATEMÁTICAS4: DISTRIBUCIÓN NORMAL. Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son: caracteres psicológicos como el cociente intelectual.

Distribución normal

De Wikipedia, la enciclopedia libre
Distribución normal
Función de densidad de probabilidad
Probability density function for the normal distribution
La línea verde corresponde a la distribución normal estandar
Función de distribución de probabilidad
Cumulative distribution function for the normal distribution
Parámetrosmu inmathbb{R} ,!
σ > 0
Dominiox inmathbb{R} ,!
Función de densidad (pdf)frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2}  ,!
Función de distribución (cdf)intlimits_{-infty}^{x} frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{t-mu}{sigma}right)^2}    , dt ,!
Mediamu ,!
Medianamu ,!
Modamu ,!
Varianzasigma^2 ,!
Coeficiente de simetría0
Curtosis0
Entropíalnleft(sigmasqrt{2,pi,e}right)  ,!
Función generadora de momentos (mgf)M_X(t)= e^{mu,t+frac{sigma^2 t^2}{2}} ,!
Función característicachi_X(t)=e^{mu,i,t-frac{sigma^2 t^2}{2}} ,!

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.[1] Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

Contenido

[ocultar]

[editar] Historia

Abraham de Moivre, descubridor de la distribución normal

La distribución normal fue presentada por vez primera por Abraham de Moivre en un artículo del año 1733,[2] que fue reimpreso en la segunda edición de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.

Laplace usó la distribución normal en el análisis de errores de experimentos. El importante método de mínimos cuadrados fue introducido por Legendre en 1805. Gauss, que afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos[3] y algunos autores le atribuyen un descubrimiento independiente del de De Moivre.[4] Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler.

El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie campana) por primera vez en 1872 para una distribución normal bivariante de componentes independientes. El nombre de "distribución normal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta terminología, otras distribuciones de probabilidad podrían ser más apropiadas en determinados contextos; véase la discusión sobre ocurrencia, más abajo.

[editar] Definición formal

Hay varios modos de definir formalmente una distribución de probabilidad. La forma más visual es mediante su función de densidad. De forma equivalente, también pueden darse para su definición la función de distribución, los momentos, la función característica y la función generatriz de momentos, entre otros.

[editar] Función de densidad

Gráfica de la distribución normal de media 0 y desviación típica 1

Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X~N(μ, σ) si su función de densidad está dada por:

f(x)=frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2} , , quad xinmathbb{R},

donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza).[5]

Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la siguiente expresión:

f(x)=f_{0,1}(x)=frac{e^frac{-x^2}{2}}{sqrt{2pi,}}, ,quad xinmathbb{R},

Su gráfica se muestra a la derecha y con frecuencia se usan tablas para el cálculo de los valores de su distribución.

[editar] Función de distribución

Función de distribución para la distribución normal

La función de distribución de la distribución normal está definida como sigue:

 begin{align} Phi_{mu,sigma^2}(x) &{}=int_{-infty}^xvarphi_{mu,sigma^2}(u),du &{}=frac{1}{sigmasqrt{2pi}} int_{-infty}^x e^{-frac{(u - mu)^2}{2sigma^2}}, du ,quad xinmathbb{R} end{align}

Por tanto, la función de distribución de la normal estándar es:

 Phi(x) = Phi_{0,1}(x) = frac{1}{sqrt{2pi}} int_{-infty}^x e^{-frac{u^2}{2}} , du, quad xinmathbb{R}.

Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma:

 Phi(x) =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x}{sqrt{2}} Bigr) Bigr], quad xinmathbb{R},

y la propia función de distribución puede, por consiguiente, expresarse así:

 Phi_{mu,sigma^2}(x) =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x-mu}{sigmasqrt{2}} Bigr) Bigr], quad xinmathbb{R}.

El complemento de la función de distribución de la normal estándar, 1 − Φ(x), se denota con frecuencia Q(x), y es referida, a veces, como simplemente función Q, especialmente en textos de ingeniería.[6] [7] Esto representa la cola de probabilidad de la distribución gaussiana. También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas ellas transformaciones simples de Φ.[8]

La inversa de la función de distribución de la normal estándar (función cuantil) puede expresarse en términos de la inversa de la función de error:

 Phi^{-1}(p) = sqrt2 ;operatorname{erf}^{-1} (2p - 1), quad pin(0,1),

y la inversa de la función de distribución puede, por consiguiente, expresarse como:

 Phi_{mu,sigma^2}^{-1}(p) = mu + sigmaPhi^{-1}(p) = mu + sigmasqrt2 ; operatorname{erf}^{-1}(2p - 1), quad pin(0,1).

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal (véase función cuantil).

Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

[editar] Límite inferior y superior estrictos para la función de distribución

Para grandes valores de x la función de distribución de la normal estándar scriptstylePhi(x) es muy próxima a 1 y scriptstylePhi(-x),{=},1,{-},Phi(x) está muy cerca de 0. Los límites elementales

 frac{x}{1+x^2}varphi(x)<1-Phi(x)<frac{varphi(x)}{x}, qquad x>0,

en términos de la densidad scriptstylevarphi son útiles.

Usando el cambio de variable v = u²/2, el límite superior se obtiene como sigue:

 begin{align} 1-Phi(x) &=int_x^inftyvarphi(u),du &<int_x^inftyfrac uxvarphi(u),du =int_{x^2/2}^inftyfrac{e^{-v}}{xsqrt{2pi}},dv =-biggl.frac{e^{-v}}{xsqrt{2pi}}biggr|_{x^2/2}^infty =frac{varphi(x)}{x}. end{align}

De forma similar, usando scriptstylevarphi'(u),{=},-u,varphi(u) y la regla del cociente,

 begin{align} Bigl(1+frac1{x^2}Bigr)(1-Phi(x))&=Bigl(1+frac1{x^2}Bigr)int_x^inftyvarphi(u),du &=int_x^infty Bigl(1+frac1{x^2}Bigr)varphi(u),du &>int_x^infty Bigl(1+frac1{u^2}Bigr)varphi(u),du =-biggl.frac{varphi(u)}ubiggr|_x^infty =frac{varphi(x)}x. end{align}

Resolviendo para scriptstyle 1,{-},Phi(x), proporciona el límite inferior.

[editar] Funciones generadoras

[editar] Función generadora de momentos

La función generadora de momentos se define como la esperanza de e(tX). Para una distribución normal, la función generadora de momentos es:

 M_X(t) = mathrm{E} left[ e^{tX} right] = int_{-infty}^{infty}  frac{1}{sigma sqrt{2pi} } e^{-frac{(x - mu)^2}{2 sigma^2}} e^{tx} , dx = e^{mu t + frac{sigma^2 t^2}{2}}

como puede comprobarse completando el cuadrado en el exponente.

 

[editar] Función característica

La función característica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la función característica se obtiene reemplazando t por it en la función generadora de momentos.

Para una distribución normal, la función característica es[9]

  begin{align} chi_X(t;mu,sigma) &{} = M_X(i t) = mathrm{E} left[ e^{i t X} right]  &{}= int_{-infty}^{infty} frac{1}{sigma sqrt{2pi}} e^{- frac{(x - mu)^2}{2sigma^2}} e^{i t x} , dx  &{}= e^{i mu t - frac{sigma^2 t^2}{2}} end{align}

[editar] Propiedades

Algunas propiedades de la distribución normal son:

  1. Es simétrica respecto de su media, μ;
    Distribución de probabilidad alrededor de la media en una distribución N(μ, σ).
  2. La moda y la mediana son ambas iguales a la media, μ;
  3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
  4. Distribución de probabilidad en un entorno de la media:
    1. en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;
    2. en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;
    3. por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.
  5. Si X ~ N(μ, σ2) y a y b son números reales, entonces (aX + b) ~ N(+b, a2σ2).
  6. Si X ~ N(μx, σx2) e Y ~ N(μy, σy2) son variables aleatorias normales independientes, entonces:
    • Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy, σx2 + σy2) (demostración). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer).
    • Su diferencia está normalmente distribuida con V = X - Y sim N(mu_X - mu_Y, sigma^2_X + sigma^2_Y).
    • Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí.
    • La divergencia de Kullback-Leibler, D {rm KL}( X | Y ) = { 1 over 2 } left( log left( { sigma^2_Y over sigma^2_X } right) + frac{sigma^2_X}{sigma^2_Y} + frac{left(mu_Y - mu_Xright)^2}{sigma^2_Y} - 1right).
  7. Si X sim N(0, sigma^2_X) e Y sim N(0, sigma^2_Y) son variables aleatorias independientes normalmente distribuidas, entonces:
  8. Si X_1, dots, X_n son variables normales estándar independientes, entonces X_1^2 + cdots + X_n^2 sigue una distribución χ² con n grados de libertad.
  9. Si X_1,dots,X_n son variables normales estándar independientes, entonces la media muestral bar{X}=(X_1+cdots+X_n)/n y la varianza muestral S^2=((X_1-bar{X})^2+cdots+(X_n-bar{X})^2)/(n-1) son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad).

[editar] Estandarización de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la distribución normal estándar.

Si X ~ N(μ,σ2), entonces

Z = frac{X - mu}{sigma} !

es una variable aleatoria normal estándar: Z ~ N(0,1).

La transformación de una distribución X ~ N(μ, σ) en una N(0, 1) se llama normalización, estandarización o tipificación de la variable X.

Una consecuencia importante de esto es que la función de distribución de una distribución normal es, por consiguiente,

Pr(X le x) = Phi left( frac{x-mu}{sigma} right) = frac{1}{2} left( 1 + operatorname{erf} left(   frac{x-mu}{sigmasqrt{2}} right) right) .

A la inversa, si Z es una distribución normal estándar, Z ~ N(0,1), entonces

X = σZ + μ

es una variable aleatoria normal tipificada de media μ y varianza σ2.

La distribución normal estándar está tabulada (habitualmente en la forma de el valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe más arriba, de la distribución estándar. De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal.

[editar] Momentos

Los primeros momentos de la distribución normal son:

NúmeroMomentoMomento centralCumulante
011 
1μ0μ
2μ2 + σ2σ2σ2
3μ3 + 3μσ200
4μ4 + 6μ2σ2 + 3σ440
5μ5 + 10μ3σ2 + 15μσ400
6μ6 + 15μ4σ2 + 45μ2σ4 + 15σ615σ60
7μ7 + 21μ5σ2 + 105μ3σ4 + 105μσ600
8μ8 + 28μ6σ2 + 210μ4σ4 + 420μ2σ6 + 105σ8105σ80

Todos los cumulantes de la distribución normal, más allá del segundo, son cero.


Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula

 Eleft[X^{2k}right]=frac{(2k)!}{2^k k!} sigma^{2k}.

[editar] El Teorema del Límite Central

Artículo principal: Teorema del límite central
Gráfica de la función de distribución de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomial con n = 48 y p = 1/4

El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal.

La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:

  • Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np y n(1 − p) son ambos, al menos, 5; en este caso se debería aplicar una corrección de continuidad).
    La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
  • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
    La distribución normal aproximada tiene parámetros μ = σ2 = λ.

La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.

[editar] Divisibilidad infinita

Las normales tienen una distribución de probabilidad infinitamente divisible: dada una media μ, una varianza σ 2 ≥ 0, y un número natural n, la suma X1 + . . . + Xn de n variables aleatorias independientes

X_1+X_2+dots+X_n sim N(mu/n, sigma!/sqrt n),

tiene esta específica distribución normal (para verificarlo, úsese la función característica de convolución y la inducción matemática).

[editar] Estabilidad

Las distribuciones normales son estrictamente estables.

[editar] Desviación típica e intervalos de confianza

Alrededor del 68% de los valores de una distribución normal están a una distancia σ > 1 (desviación típica) de la media, μ; alrededor del 95% de los valores están a dos desviaciones típicas de la media y alrededor del 99,7% están a tres desviaciones típicas de la media. Esto se conoce como la "regla 68-95-99,7" o la "regla empírica".

Para ser más precisos, el área bajo la curva campana entre μ − nσ y μ + nσ en términos de la función de distribución normal viene dada por

begin{align}&Phi_{mu,sigma^2}(mu+nsigma)-Phi_{mu,sigma^2}(mu-nsigma) &=Phi(n)-Phi(-n)=2Phi(n)-1=mathrm{erf}bigl(n/sqrt{2},bigr),end{align}

donde erf es la función error. Con 12 decimales, los valores para los puntos 1-, 2-, hasta 6-σ son:

 n, mathrm{erf}bigl(n/sqrt{2},bigr),
1 0,682689492137 
20,954499736104
30,997300203937
40,999936657516
50,999999426697
60,999999998027

La siguiente tabla proporciona la relación inversa de múltiples σ correspondientes a unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos valores son útiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintóticamente normales):

 mathrm{erf}bigl(n/sqrt{2},bigr) n, 
0,80 1,28155 
0,901,64485
0,951,95996
0,982,32635
0,992,57583
0,9952,80703
0,9983,09023
0,9993,29052
0,99993,8906
0,999994,4172

donde el valor a la izquierda de la tabla es la proporción de valores que caerán en el intervalo dado y n es un múltiplo de la desviación típica que determina la anchura de el intervalo.

[editar] Forma familia exponencial

La distribución normal tiene forma de familia exponencial biparamétrica con dos parámetros naturales, μ y 1/σ2, y estadísticos naturales X y X2. La forma canónica tiene como parámetros {mu over sigma^2} y {1 over sigma^2} y estadísticos suficientes sum  x y -{1 over 2} sum  x^2.

[editar] Distribución normal compleja

Considérese la variable aleatoria compleja gaussiana

 Z=X+iY,

donde X e Y son variables gaussianas reales e independientes con igual varianza sigma_r^2. La función de distribución de la variable conjunta es entonces

 frac{1}{2,pi,sigma_r^2} e^{-(x^2+y^2)/(2 sigma_r ^2)}.

Como sigma_Z =sqrt{2}sigma_r, la función de distribución resultante para la variable gaussiana compleja Z es

 frac{1}{pi,sigma_Z^2} e^{-|Z|^2!/sigma_Z^2}.

[editar] Distribuciones relacionadas

  • Y˜Cauchy(μ = 0,θ = 1) es una distribución de Cauchy si Y = X1 / X2 para X1˜N(0,1) y X2˜N(0,1) son dos distribuciones normales independientes.
  • Distribución normal truncada. si X sim N(mu, sigma^2),! entonces truncando X por debajo de A y por encima de B dará lugar a una variable aleatoria de media E(X)=mu + frac{sigma(varphi_1-varphi_2)}{T},! donde T=Phileft(frac{B-mu}{sigma}right)-Phileft(frac{A-mu}{sigma}right), ; varphi_1 = varphileft(frac{A-mu}{sigma}right), ; varphi_2 = varphileft(frac{B-mu}{sigma}right) y varphi es la función de densidad de una variable normal estándar.

[editar] Estadística descriptiva e inferencial

[editar] Resultados

De la distribución normal se derivan muchos resultados, incluyendo rangos de percentiles ("percentiles" o "cuantiles"), curvas normales equivalentes, stanines, z-scores, y T-scores. Además, un número de procedimientos de estadísticos de comportamiento están basados en la asunción de que esos resultados están normalmente distribuidos. Por ejemplo, el test de Student y el análisis de varianza (ANOVA) (véase más abajo). La gradación de la curva campana asigna grados relativos basados en una distribución normal de resultados.

[editar] Tests de normalidad

Artículo principal: Test de normalidad

Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribución normal. La hipótesis nula es, en estos casos, si el conjunto de datos es similar a una distribución normal, por lo que un P-valor suficientemente pequeño indica datos no normales.

[editar] Estimación de parámetros

[editar] Estimación de parámetros de máxima verosimilitud

Véase también: Máxima verosimilitud

Supóngase que

X_1,dots,X_n

son independientes y cada una está normalmente distribuida con media μ y varianza σ 2 > 0. En términos estadísticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida. Se desea estimar la media poblacional μ y la desviación típica poblacional σ, basándose en las valores observados de esta muestra. La función de densidad conjunta de estas n variables aleatorias independientes es

begin{align}f(x_1,dots,x_n;mu,sigma) &= prod_{i=1}^n varphi_{mu,sigma^2}(x_i) &=frac1{(sigmasqrt{2pi})^n}prod_{i=1}^n expbiggl(-{1 over 2} Bigl({x_i-mu over sigma}Bigr)^2biggr), quad(x_1,ldots,x_n)inmathbb{R}^n. end{align}

Como función de μ y σ, la función de verosimilitud basada en las observaciones X1, ..., Xn es

 L(mu,sigma) = frac C{sigma^n} expleft(-{sum_{i=1}^n (X_i-mu)^2 over 2sigma^2}right), quadmuinmathbb{R}, sigma>0,

con alguna constante C > 0 (de la cual, en general, se permitiría incluso que dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la función de log-verosimilitud respecto a los parámetros tenidos en cuenta, véase más abajo).

En el método de máxima verosimilitud, los valores de μ y σ que maximizan la función de verosimilitud se toman como estimadores de los parámetros poblacionales μ y σ.

Habitualmente en la maximización de una función de dos variables, se podrían considerar derivadas parciales. Pero aquí se explota el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. No obstante, encontramos que ese valor de μ, entonces se sustituye por μ en la función de verosimilitud y finalmente encontramos el valor de σ que maximiza la expresión resultante.

Es evidente que la función de verosimilitud es una función decreciente de la suma

sum_{i=1}^n (X_i-mu)^2. ,!

Así que se desea el valor de μ que minimiza esta suma. Sea

overline{X}_n=(X_1+cdots+X_n)/n

la media muestral basada en las n observaciones. Nótese que

 begin{align} sum_{i=1}^n (X_i-mu)^2 &=sum_{i=1}^nbigl((X_i-overline{X}_n)+(overline{X}_n-mu)bigr)^2 &=sum_{i=1}^n(X_i-overline{X}_n)^2 + 2(overline{X}_n-mu)underbrace{sum_{i=1}^n (X_i-overline{X}_n)}_{=,0} + sum_{i=1}^n (overline{X}_n-mu)^2 &=sum_{i=1}^n(X_i-overline{X}_n)^2 + n(overline{X}_n-mu)^2. end{align}

Sólo el último término depende de μ y se minimiza por

widehat{mu}_n=overline{X}_n.

Esta es la estimación de máxima verosimilitud de μ basada en las n observaciones X1, ..., Xn. Cuando sustituimos esta estimación por μ en la función de verosimilitud, obtenemos

L(overline{X}_n,sigma) = frac C{sigma^n} expbiggl(-{sum_{i=1}^n (X_i-overline{X}_n)^2 over 2sigma^2}biggr), quadsigma>0.

Se conviene en denotar la "log-función de verosimilitud", esto es, el logaritmo de la función de verosimilitud, con una minúscula , y tenemos

ell(overline{X}_n,sigma)=log C-nlogsigma-{sum_{i=1}^n(X_i-overline{X}_n)^2 over 2sigma^2}, quadsigma>0,

entonces

 begin{align} {partial over partialsigma}ell(overline{X}_n,sigma) &=-{n over sigma} +{sum_{i=1}^n (X_i-overline{X}_n)^2 over sigma^3} &=-{n over sigma^3}biggl(sigma^2-{1 over n}sum_{i=1}^n (X_i-overline{X}_n)^2 biggr), quadsigma>0. end{align}

Esta derivada es positiva, cero o negativa según σ2 esté entre 0 y

hatsigma_n^2:={1 over n}sum_{i=1}^n(X_i-overline{X}_n)^2,

o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observación, lo que significa que n = 1, o si X1 = ... = Xn, lo cual sólo ocurre con probabilidad cero, entonces hatsigma{}_n^2=0 por esta fórmula, refleja el hecho de que en estos casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero.)

Consecuentemente esta media de cuadrados de residuos es el estimador de máxima verosimilitud de σ2, y su raíz cuadrada es el estimador de máxima verosimilitud de σ basado en las n observaciones. Este estimador hatsigma{}_n^2 es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n − 1) veces este estimador.

[editar] Sorprendente generalización

La derivada del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es despreciable. Involucra el teorema espectral y la razón por la que puede ser mejor para ver un escalar como la traza de una matriz 1×1 matrix que como un mero escalar. Véase estimación de la covarianza de matrices.

[editar] Estimación insesgada de parámetros

El estimador  overline{X} de máxima verosimilitud de la media poblacional μ, es un estimador insesgado de la media poblacional.

El estimador de máxima verosimilitud de la varianza es insesgado si asumimos que la media de la población es conocida a priori, pero en la práctica esto no ocurre. Cuando disponemos de una muestra y no sabemos nada de la media o la varianza de la población de la que se ha extraído, como se asumía en la derivada de máxima verosimilitud de arriba, entonces el estimador de máxima verosimilitud de la varianza es sesgado. Un estimador insesgado de la varianza σ2 es la cuasi varianza muestral:

 S^2 = frac{1}{n-1} sum_{i=1}^n (X_i - overline{X})^2.

que sigue una distribución Gamma cuando las Xi son normales independientes e idénticamente distribuidas:

 S^2 sim operatorname{Gamma}left(frac{n-1}{2},frac{2 sigma^2}{n-1}right),

con media operatorname{E}(S^2)=sigma^2 y varianza operatorname{Var}(S^2)=2sigma^4/(n-1).

La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la estimación de máxima verosimilitud de la varianza. No obstante, ni ésta, ni la raíz cuadrada de la cuasivarianza muestral proporcionan un estimador insesgado para la desviación típica (véase estimación insesgada de la desviación típica para una fórmula particular para la distribución normal.

[editar] Incidencia

Las distribuciones aproximadamente normales aparecen por doquier, como queda explicado por el teorema central del límite. Cuando en un fenómeno se sospecha la presencia de un gran número de pequeñas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones serán "normales". Hay métodos estadísticos para probar empíricamente esta asunción, por ejemplo, el test de Kolmogorov-Smirnov.

Hay causas que pueden actuar de forma multiplicativa (más que aditiva). En este caso, la asunción de normalidad no está justificada y es el logaritmo de la variable en cuestión el que estaría normalmente distribuido. La distribución de las variables directamente observadas en este caso se denomina log-normal.

Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideración, la asunción de normalidad no está tampoco justificada. Esto es cierto incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribución completa será una superposición de variables normales, que no es en general normal. Ello está relacionado con la teoría de errores (véase más abajo).

A continuación se muestran una lista de situaciones que estarían, aproximadamente, normalmente distribuidas. Más abajo puede encontrarse una discusión detallada de cada una de ellas:

  • En problemas de recuento, donde el teorema central del límite incluye una aproximación de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles están involucradas, tales como:
  • En medidas fisiológicas de especímenes biológicos:
    • El logaritmo de las medidas del tamaño de tejidos vivos (longitud, altura, superficie de piel, peso);
    • La longitud de apéndices inertes (pelo, garras, rabos, dientes) de especímenes biológicos en la dirección del crecimento;
    • Otras medidas fisiológicas podrían estar normalmente distribuidas, aunque no hay razón para esperarlo a priori;
  • Se asume con frecuencia que los errores de medida están normalmente distribuidos y cualquier desviación de la normalidad se considera una cuestión que debería explicarse;
  • Variables financieras, en el modelo Black-Scholes:
    • Cambios en el logaritmo de

Cambios en el logaritmo de tasas de cambio, índices de precios, índices de existencias de mercado; estas variables se comportan como el interés compuesto, no como el interés simple, por tanto, son multiplicativas;

    • Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas pesadas, como puede verse en crash de las existencias de mercado;
    • Otras variables financieras podrían estar normalmente distribuidas, pero no hay razón para esperarlo a priori;
  • Intensidad de la luz:
    • La intensidad de la luz láser está normalmente distribuida;
    • La luz térmica tiene una distribución de Bose-Einstein en escalas de tiempo muy breves y una distribución normal en grandes escalas de tiempo debido al teorema central del límite.

Es relevante para la biolgía y la economía el hecho de que los sistemas complejos tienden a mostrar la ley de potencias más que normal.

[editar] Recuento de fotones

La intensidad de la luz de una sola fuente varía con el tiempo, así como las fluctuaciones térmicas que pueden observarse si la luz se analiza a una resolución suficientemente alta. La mecánica cuántica interpreta las medidas de la intensidad de la luz como un recuento de fotones, donde la asunción natural es usar la distribución de Poisson. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximación Poisson - Normal es apropiada.

[editar] Medida de errores

La normalidad es la asunción central de la teoría matemática de errores. De forma similar en el ajuste de modelos estadístico, un indicador de la bondad del ajuste es que el error residual (así es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. La asunción es que cualquier desviación de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teoría de errores, la normalidad es la única observación que no necesita ser explicada, sino que es esperada. No obstante, si los datos originales no están normalmente distribuidos (por ejemplo, si siguen una distribución de Cauchy, entonces los residuos tampoco estarán normalmente distribuidos. Este hecho es ignorado habitualmente en la práctica.

Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que están agrupados entorno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta, se asume que el error que queda debe ser el resultado de un gran número de muy pequeños y aditivos efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemáticos que no han sido tomados en cuenta. Puede debatirse si esta asunción es válida.

Una famosa observación atribuida a Gabriel Lippmann dice:[cita requerida]

Todo el mundo cree en la ley normal de los errores: los matemáticos, porque piensan que es un hecho experimental; y los experimentadores, porque suponen que es un teorema matemático

Otra fuente podría ser Henri Poincaré.

[editar] Características físicas de especímenes biológicos

Los tamaños de los animales adultos siguen aproximadamente una distribución log-normal. La evidencia y explicación basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relativo, de 1932, por Julian Huxley.

Las diferencias de tamaño debido a dimorfismos sexuales u otros polimorfismos de insectos, como la división social de las abejas en obreras, zánganos y reinas, por ejemplo, hace que la distribución de tamaños se desvíe hacia la lognormalidad.

La asunción de que el tamaño lineal de los especímenes biológicos es normal (más que lognormal) nos lleva a una distribución no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas sólo mantienen las transformaciones lineales). A la inversa, asumir que el peso sigue una distribución normal implica longitudes no normales. Esto es un problema porque, a priori, no hay razón por la que cualquiera de ellas (longitud, masa corporal u otras) debería estar normalmente distribuida. Las distribuciones lognormales, por otro lado, se mantienen entre potencias, así que el "problema" se desvanece si se asume la lognormalidad.

Por otra parte, hay algunas medidas biológicas donde se asume normalidad, tales como la presión sanguínea en humanos adultos. Esta asunción sólo es posible tras separar a hombres y mujeres en distintas poblaciones, cada una de las cuales está normalmente distribuida.

[editar] Variables financieras

El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras.

Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribución normal. Esta aproximación se ha modificado desde entonces ligeramente. A causa de la naturaleza multiplicativa del interés compuesto, los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". Como tales, sus cambios periódicos (por ejemplo, cambios anuales) no son normales, sino lognormales. Esta es todavía la hipótesis más comúnmente aceptada en economía.

No obstante, en realidad las variables financieras exhiben colas pesadas y así, la asunción de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a este modelo por parte de matemáticos como Benoît Mandelbrot, quien observó que los cambios en el logaritmo durante breves periodos de tiempo (como un día) se aproximan bien por distribuciones que no tienen una varianza finita y, por consiguiente, el teorema central del límite no puede aplicarse. Más aún, la suma de muchos de tales cambios sigue una distribución de log-Levy.

[editar] Distribuciones en tests de inteligencia

A veces, la dificultad y número de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos. Más aún, las puntuaciones "en crudo" se convierten a valores que marcan el cociente intelectual ajustándolas a la distribución normal. En cualquier caso se trata de un resultado causado deliberadamente por la construcción del test o de una interpretación de las puntuaciones que sugiere normalidad para la mayoría de la población. Sin embargo, la cuestión acerca de si la inteligencia en sí está normalmente distribuida es más complicada porque se trata de una variable latente y, por consiguiente, no puede observarse directamente.

[editar] Ecuación de difusión

La función de densidad de la distribución normal está estrechamente relacionada con la ecuación de difusión (homogénea e isótropa) y, por tanto, también con la ecuación de calor. Esta ecuación diferencial parcial describe el tiempo de evolución de una función de densidad bajo difusión. En particular, la función de densidad de masa

varphi_{0,t}(x) = frac{1}{sqrt{2pi t,}}expleft(-frac{x^2}{2t}right),

para la distribución normal con esperanza 0 y varianza t satisface la ecuación de difusión:

 frac{partial}{partial t} varphi_{0,t}(x) = frac{1}{2} frac{partial^2}{partial x^2} varphi_{0,t}(x).

Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac, lo cual significa, esencialemente que toda la masa está inicialmente concentrada en un punto, entonces la función de densidad de masa en el tiempo t tendrá la forma de la función de densidad de la normal, con varianza creciendo linealmente con t. Esta conexión no es coincidencia: la difusión se debe a un movimiento Browniano que queda descrito matemáticamente por un proceso de Wiener, y tal proceso en un tiempo t también resultará normal con varianza creciendo linealmente con t'.

Más generalmente, si la densidad de masa inicial viene dada por una función φ(x), entonces la densidad de masa en un tiempo t vendrá dada por la convolución de φ y una función de densidad normal.

[editar] Uso en estadística computacional

[editar] Generación de valores para una variable aleatoria normal

Para simulaciones por ordenador es útil, en ocasiones, generar valores que podrían seguir una distribución normal. Hay varios métodos y el más básico de ellos es invertir la función de distribución de la normal estándar. Se conocen otros métodos más eficientes, uno de los cuales es la transformacion de Box-Muller. Un algoritmo incluso más rápido es el algoritmo zigurat. Ambos se discuten más abajo. Una aproximación simple a estos métodos es programarlos como sigue: simplemente súmense 12 desviaciones uniformes (0,1) y réstense 6 (la mitad de 12). Esto es bastante útil en muchas aplicaciones. La suma de esos 12 valores sigue la distribución de Irwin-Hall; son elegidos 12 para dar a la suma una varianza de uno, exactamente. Las desviaciones aleatorias resultantes están limitadas al rango (−6, 6) y tienen una densidad que es una doceava sección de una aproximación polinomial de undécimo orden a la distribución normal .[10]

El método de Box-Muller dice que, si tienes dos números aleatorios U y V uniformemente distribuidos en (0, 1], (por ejemplo, la salida de un generador de números aleatorios), entonces X e Y son dos variables aleatorias estándar normalmente distribuidas, donde:

Y = sqrt{- 2 ln U} , sin(2 pi V) .

Esta formulación aparece porque la distribución χ² con dos grados de libertad (véase la propiedad 4, más arriba) es una variable aleatoria exponencial fácilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). Así, un ángulo elegido uniformemente alrededor de un círculo vía la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas.

Un método mucho más rápido que la transformación de Box-Muller, pero que sigue siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97% de los casos usa sólo dos números aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicación y un test-si . Sólo un 3% de los casos donde la combinación de estos dos cae fuera del "corazón del zigurat", un tipo de rechazo muestral usando logaritmos, exponenciales y números aleatorios más uniformes deberían ser empleados.

Hay también alguna investigación sobre la conexión entre la rápida transformación de Hadamard y la distribución normal, en virtud de que la transformación emplea sólo adición y sustracción y por el teorema central del límite los números aleatorios de casi cualquier distribución serán transformados en la distribución normal. En esta visión se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.

[editar] Aproximaciones numéricas de la distribución normal y su función de distribución

La función de distribución normal se usa extensamente en computación científica y estadística. Por consiguiente, ha sido implementada de varias formas.

La Biblioteca Científica GNU calcula valores de la función de distribución normal estándar usando aproximaciones por funciones racionales a trozos. Otro método de aproximación usa polinomios de tercer grado en intervalos.[11] El artículo sobre el lenguaje de programación bc proporciona un ejemplo de cómo computar la función de distribución en GNU bc.

Para una discusión más detallada sobre cómo calcular la distribución normal, véase la sección 3.4.1C. de The Art of Computer Programming (El arte de la programación por ordenador), de Knuth.

 

[editar] Véase también

[editar] Referencias

  1. Es una consecuencia del Teorema Central del Límite
  2. Abraham de Moivre, "Approximatio ad Summam Terminorum Binomii (a + b)n in Seriem expansi" (impreso el 12 de noviembre de 1733 en Londres para una edición privada). Este panfleto se reimprimió en: (1) Richard C. Archibald (1926) “A rare pamphlet of Moivre and some of his discoveries,” Isis, vol. 8, páginas 671-683; (2) Helen M. Walker, “De Moivre on the law of normal probability” en David Eugene Smith, A Source Book in Mathematics [Nueva York, Nueva York: McGraw-Hill, 1929; reimpresión: Nueva York, Nueva York: Dover, 1959], vol. 2, páginas 566-575.; (3) Abraham De Moivre, The Doctrine of Chances (2ª ed.) [Londres: H. Woodfall, 1738; reimpresión: Londres: Cass, 1967], páginas 235-243; (3ª ed.) [Londres: A Millar, 1756; reimpresión: Nueva York, Nueva York: Chelsea, 1967], páginas 243-254; (4) Florence N. David, Games, Gods and Gambling: A History of Probability and Statistical Ideas [Londres: Griffin, 1962], Apéndice 5, páginas 254-267.
  3. Havil, 2003
  4. Wussing, Hans. «Lección 10». Lecciones de Historia de las Matemáticas (1ª (castellano) edición). Siglo XXI de España Editores, S.A.. pp. 190. ISBN 84-323-0966-4. http://books.google.es/books?id=IG3_b5Xm8PMC. «"La distribución normal y sus aplicaciones a la teoría de errores se asocia a menudo con el nombre de Gauss, quien la descubrió -igual que Laplace- independientemente; no obstante ya había sido estudiada por de Moivre» 
  5. Weisstein, Eric W., «Normal Distribution» (en inglés), MathWorld, Wolfram Research, http://mathworld.wolfram.com/NormalDistribution.html, consultado el 18 de marzo .
  6. La función Q
  7. http://www.eng.tau.ac.il/~jo/academic/Q.pdf
  8. Weisstein, Eric W., «Normal Distribution Function» (en inglés), MathWorld, Wolfram Research, http://mathworld.wolfram.com/NormalDistributionFunction.html .
  9. M.A. Sanders. «Characteristic function of the univariate normal distribution». Consultado el 06-03-2009.
  10. Johnson NL, Kotz S, Balakrishnan N. (1995) Continuous Univariate Distributions Volume 2, Wiley. Equation(26.48)
  11. Andy Salter. «B-Spline curves». Consultado el 05-12-2008.

[editar] Enlaces externos

Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad, incluyendo la normal, a una serie de datos:

MATEMÁTICAS4: RAZONES MATEMÁTICAS. En matemáticas, una razón es una relación entre dos números semejantes (es decir, objetos, personas, estudiantes, cucharadas, unidades idénticas de cualquier dimensión), generalmente se expresa como "a es a b" o a:b, a veces se expresa aritméticamente como un cociente adimensional de los dos, que indica de manera explícita las veces que el primer número contiene el segundo.

Razón (matemáticas)

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Razón (desambiguación).
«ratio» redirige aquí. Para los coeficientes usados en economía y finanzas, véase ratio financiero.

En matemáticas, una razón es una relación entre dos números semejantes (es decir, objetos, personas, estudiantes, cucharadas, unidades idénticas de cualquier dimensión), generalmente se expresa como "a es a b" o a:b, a veces se expresa aritméticamente como un cociente adimensional de los dos, que indica de manera explícita las veces que el primer número contiene el segundo.

Contenido

[ocultar]

Razón geométrica

La razón entre el ancho y la altura de un típico monitor de computadora.

La razón geométrica es la comparación de dos cantidades por su cociente, en donde se ve cuántas veces contiene una a la otra. Es necesario tener el dominio o rango para poder sacarla.

Ejemplo: 18 entre 6 es igual a 3 (18 tiene tres veces seis); su razón geométrica es 3.

La razón se puede escribir de 3 formas Ejemplo A. 50 sobre 70 B. 50 es a 70 C. 50: 70 El numerador de la razón se llama antecedente debido a que puede haberse dividido o multiplicado.

Razón aritmética

La razón aritmética de dos cantidades es la diferencia (o resta) de dichas cantidades. La razón aritmética se puede escribir colocando entre las dos cantidades el signo . o bien con el signo -. Así, la razón aritmética de 6 a 4 se escribe: 6.4 ó 6-4.

color{red}{antecedenterightarrow 6}color{black}{-}color{blue}{4leftarrow consecuente}

El primer término de una razón aritmética recibe el nombre de antecedente y el segundo el de consecuente. Así en la razón 6-4, el antecedente es 6 y el consecuente 4.

Propiedades de las razones Aritméticas

Como la razón aritmética de dos cantidades no es más que la resta indicada de dichas cantidades, las propiedades de las razones aritméticas serán las propiedades de toda suma o resta.

PRIMERA PROPIEDAD

Si al antecedente se le suma o resta una cantidad la razón aritmética queda aumentada o disminuida dicha cantidad.

  • Primer caso (con la suma)
Sea la razón aritmética 7 a 5 es igual a 2:

 7-5=2,  o , 7.5=2

Si le sumamos al antecedente el número 4 (aclaramos que puede ser cualquier número) entonces tendríamos (7+4)-5= 6. Como se observa la respuesta de la razón aritmética original (7-5=2), después de sumarle 4 al antecedente ((7+4)-5= 6) la respuesta queda aumentada en dicha cantidad.
  • Segundo caso (con la resta)
Sea la razón aritmética 18 a 3 es igual a 15:

 18-3=15,  o , 18.3=15

Si le restamos al antecedente el número 2 (aclaramos que puede ser cualquier número) entonces tendríamos (18-2)-3= 13. Como se observa la respuesta de la razón aritmética original (18-3=15), después de restarle 2 al antecedente ((18-2)-3= 13) la respuesta queda disminuida en dicha cantidad.

SEGUNDA PROPIEDAD

Si al consecuente de una razón aritmética se suma o se resta una cantidad cualquiera, la razón queda disminuida en el primer caso y aumentada en el segundo en la cantidad de veces que indica dicho número.

  • Primer caso (sumando una cantidad cualquiera al consecuente)
Sea la razón aritmética 45 a 13 es igual a 32:Si le sumamos al consecuente el número 7 (aclaramos que puede ser cualquier número) entonces tendríamos 45-(13+7)=25. Como se observa la respuesta de la razón aritmética original (45-13=32), después de sumarle 7 al consecuente 45-(13+7)=25) la respuesta queda disminuida en dicha cantidad es decir de 32 paso a ser 25.
  • Segundo caso (restando una cantidad cualquiera al consecuente)
Sea la razón aritmética 36 a 12 es igual a 24:Si le restamos al consecuente el número 3 (aclaramos que puede ser cualquier número) entonces tendríamos 36-(12-3)= 27. Como se observa la respuesta de la razón aritmética original (36-12=24), después de restarle 3 al consecuente (36-(12-3)= 27) la respuesta queda aumentada en dicha cantidad es decir de 24 paso a ser 27.

Proporciones Aritméticas

Una "proporción aritmética" es la = de 2 razones. Las proporciones aritméticas se pueden representar de dos maneras distintas:

  • a/b = c/d o bien
  • a:b = c:d

y se lee "a es a b como c es a d".

Los términos primero y cuarto de una proporción aritmética reciben el nombre de extremos, mientras que los términos segundo y tercero se denominan medios. Los términos primero y tercero reciben el nombre de antecedentes, mientras que los términos segundo y cuarto se llaman consecuentes.

Así sea la proporción aritmética 10:5 = 8:4. Los términos 10 y 4 (son extremos) y, 5 y 8 (son medios).

Las proporciones aritméticas cuyos medios no son iguales reciben el nombre de proporciones aritméticas discretas. Por el contrario, si los medios de la proporción aritmética son iguales, ésta recibe el nombre de continua. En el caso del ejemplo se trata de una proporción aritmética discreta porque sus medios son desiguales (5 y 8).

En toda proporción (no continua):

  • El producto de los extremos será igual al producto de los medios.

(10×4 = 5×8)

Se define la media aritmética de una proporción aritmética continua como cada uno de los medios iguales de dicha proporción aritmética. Sea: 10-8::8-6. La media aritmética es 8.

La media aritmética de una proporción aritmética es igual a la semisuma de los extremos.

La razón geométrica de dos números es el cociente exacto de dividir el primero a por el segundo b y se representa:

a:b

Se lee "a" es a "b" como "c" es a "d"

Donde el a, b son entero, fraccionario o mixto (desde el punto de la aritmética).

Las razones se pueden escribir de tres maneras diferentes:

Ejemplo:

2 es a 202:1 /12/1

Por lo tanto toda razón se puede expresar como una fracción y eventualmente como un decimal.

Véase también

MATEMÁTICAS4: SE PODRÍAN ESTUDIAR LAS VARIACIONES, LA PROPORCIÓN Y LAS RAZONES MATEMÁTICAS. CLARAMENTE NOS HEMOS "DESVIADO" AL MÁXIMO, PERO NO SE SI TODO ESTO RESULTA ARMÓNICO, Y SI PUEDE SER "DESPROPORCIONADO" O MUY "TRASCENDENTAL". El cálculo de variaciones es un problema matemático consistente en buscar máximos y mínimos (o más generalmente extremos relativos) de funcionales continuos definidos sobre algún espacio funcional. Constituyen una generalización del cálculo elemental de máximos y mínimos de funciones reales de una variable.

Cálculo de variaciones

De Wikipedia, la enciclopedia libre

El cálculo de variaciones es un problema matemático consistente en buscar máximos y mínimos (o más generalmente extremos relativos) de funcionales continuos definidos sobre algún espacio funcional. Constituyen una generalización del cálculo elemental de máximos y mínimos de funciones reales de una variable.

Contenido

[ocultar]

[editar] Formulación general

Uno de los problemas típicos en cálculo diferencial es el de encontrar el valor de x para el cual la función f(x) alcanza un valor extremo (máximo o mínimo). En el cálculo de variaciones el problema es encontrar una función f(x) para la cual un funcional I[f] alcance un valor extremo. El funcional I[f] está compuesto por una integral que depende de x, de la función f(x) y algunas de sus derivadas.

I[f]=int_a^b f(x,p(r),c'(x),...),dx

Donde la función f(x) pertenece a algún espacio de funciones (espacio de Banach, espacio de Hilbert), y tanto ella como sus derivadas pueden tener restricciones.

Esta fórmula integral puede ser más complicada permitiendo a x ser un vector, y por lo tanto incluyendo derivadas parciales para f.

[editar] Problemas históricos

[editar] Problema Isoperimétrico

Artículo principal: Isoperimetría

¿Cuál es el área máxima que puede rodearse con una curva de longitud dada?.

Ejemplo: Sean dos puntos A = (a,0),B = (b,0) en el eje x donde la distancia entre ellos está dada. Es decir AB = l. El problema de hallar una curva que maximice el área entre ella y el eje x sería:

Hallar una función f(x) de modo que,

I[f]=int_a^b f(x) dx = max

con las restricciones

G[f] = int_a^b sqrt{1+(f'(x))^2} dx = l (longitud de arco)

f(a) = f(b) = 0

[editar] Braquistócrona

El problema de la curva braquistócrona se remonta a J. Bernoulli (1696). Se refiere a encontrar una curva en el plano cartesiano que vaya del punto P = (x0,y0) al origen de modo que un punto material que se desliza sin fricción sobre ella tarda el menor tiempo posible en ir de P al origen. Usando principios de mecánica clásica el problema puede formularse como,

T[f]=int_{0}^{x_0}frac {sqrt{1+(f'(x))^2}} {sqrt{2g(y_0-y)}} dx = min

donde g es la gravedad y las restricciones son, f(0) = 0, f(x0) = y0. Hay que notar que en x = x0 existe una singularidad.

[editar] Véase también