Blogia

petalofucsia

MATEMÁTICAS: PARESE A OBSERVAR TODOS LOS COMPORTAMIENTOS QUE SON NORMALES Y LINGÜÍSTICAMENTE TODO LO QUE SE CONSIDERA NORMAL, USANDO DICCIONARIOS U OTROS MÉTODOS. ¿ES UNA RELACIÓN DE CAUSALIDAD TAMBIÉN? ¿QUÉ OPINA? ¿DE CAUSA Y EFECTO? En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.

Distribución normal

De Wikipedia, la enciclopedia libre
Distribución normal
Función de densidad de probabilidad
Probability density function for the normal distribution
La línea verde corresponde a la distribución normal estandar
Función de distribución de probabilidad
Cumulative distribution function for the normal distribution
Parámetrosmu inmathbb{R} ,!
σ > 0
Dominiox inmathbb{R} ,!
Función de densidad (pdf)frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2}  ,!
Función de distribución (cdf)intlimits_{-infty}^{x} frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{t-mu}{sigma}right)^2}    , dt ,!
Mediamu ,!
Medianamu ,!
Modamu ,!
Varianzasigma^2 ,!
Coeficiente de simetría0
Curtosis0
Entropíalnleft(sigmasqrt{2,pi,e}right)  ,!
Función generadora de momentos (mgf)M_X(t)= e^{mu,t+frac{sigma^2 t^2}{2}} ,!
Función característicachi_X(t)=e^{mu,i,t-frac{sigma^2 t^2}{2}} ,!

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea coocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, incluso si la distribución de la población de la cual se extrae la muestra no es normal.[1] Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

Contenido

[ocultar]

[editar] Historia

Abraham de Moivre, descubridor de la distribución normal

La distribución normal fue presentada por vez primera por Abraham de Moivre en un artículo del año 1733,[2] que fue reimpreso en la segunda edición de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.

Laplace usó la distribución normal en el análisis de errores de experimentos. El importante método de mínimos cuadrados fue introducido por Legendre en 1805. Gauss, que afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos[3] y algunos autores le atribuyen un descubrimiento independiente del de De Moivre.[4] Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler.

El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie campana) por primera vez en 1872 para una distribución normal bivariante de componentes independientes. El nombre de "distribución normal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta terminología, otras distribuciones de probabilidad podrían ser más apropiadas en determinados contextos; véase la discusión sobre ocurrencia, más abajo.

[editar] Definición formal

Hay varios modos de definir formalmente una distribución de probabilidad. La forma más visual es mediante su función de densidad. De forma equivalente, también pueden darse para su definición la función de distribución, los momentos, la función característica y la función generatriz de momentos, entre otros.

[editar] Función de densidad

Gráfica de la distribución normal de media 0 y desviación típica 1

Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X~N(μ, σ) si su función de densidad está dada por:

f(x)=frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2} , , quad xinmathbb{R},

donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza).[5]

Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la siguiente expresión:

f(x)=f_{0,1}(x)=frac{e^frac{-x^2}{2}}{sqrt{2pi,}}, ,quad xinmathbb{R},

Su gráfica se muestra a la derecha y con frecuencia se usan tablas para el cálculo de los valores de su distribución.

[editar] Función de distribución

Función de distribución para la distribución normal

La función de distribución de la distribución normal está definida como sigue:

 begin{align} Phi_{mu,sigma^2}(x) &{}=int_{-infty}^xvarphi_{mu,sigma^2}(u),du &{}=frac{1}{sigmasqrt{2pi}} int_{-infty}^x e^{-frac{(u - mu)^2}{2sigma^2}}, du ,quad xinmathbb{R} end{align}

Por tanto, la función de distribución de la normal estándar es:

 Phi(x) = Phi_{0,1}(x) = frac{1}{sqrt{2pi}} int_{-infty}^x e^{-frac{u^2}{2}} , du, quad xinmathbb{R}.

Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma:

 Phi(x) =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x}{sqrt{2}} Bigr) Bigr], quad xinmathbb{R},

y la propia función de distribución puede, por consiguiente, expresarse así:

 Phi_{mu,sigma^2}(x) =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x-mu}{sigmasqrt{2}} Bigr) Bigr], quad xinmathbb{R}.

El complemento de la función de distribución de la normal estándar, 1 − Φ(x), se denota con frecuencia Q(x), y es referida, a veces, como simplemente función Q, especialmente en textos de ingeniería.[6] [7] Esto representa la cola de probabilidad de la distribución gaussiana. También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas ellas transformaciones simples de Φ.[8]

La inversa de la función de distribución de la normal estándar (función cuantil) puede expresarse en términos de la inversa de la función de error:

 Phi^{-1}(p) = sqrt2 ;operatorname{erf}^{-1} (2p - 1), quad pin(0,1),

y la inversa de la función de distribución puede, por consiguiente, expresarse como:

 Phi_{mu,sigma^2}^{-1}(p) = mu + sigmaPhi^{-1}(p) = mu + sigmasqrt2 ; operatorname{erf}^{-1}(2p - 1), quad pin(0,1).

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal (véase función cuantil).

Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

[editar] Límite inferior y superior estrictos para la función de distribución

Para grandes valores de x la función de distribución de la normal estándar scriptstylePhi(x) es muy próxima a 1 y scriptstylePhi(-x),{=},1,{-},Phi(x) está muy cerca de 0. Los límites elementales

 frac{x}{1+x^2}varphi(x)<1-Phi(x)<frac{varphi(x)}{x}, qquad x>0,

en terminos de la densidad scriptstylevarphi son útiles.

Usando el cambio de variable v = u²/2, el límite superior se obtiene como sigue:

 begin{align} 1-Phi(x) &=int_x^inftyvarphi(u),du &<int_x^inftyfrac uxvarphi(u),du =int_{x^2/2}^inftyfrac{e^{-v}}{xsqrt{2pi}},dv =-biggl.frac{e^{-v}}{xsqrt{2pi}}biggr|_{x^2/2}^infty =frac{varphi(x)}{x}. end{align}

De forma similar, usando scriptstylevarphi'(u),{=},-u,varphi(u) y la regla del cociente,

 begin{align} Bigl(1+frac1{x^2}Bigr)(1-Phi(x))&=Bigl(1+frac1{x^2}Bigr)int_x^inftyvarphi(u),du &=int_x^infty Bigl(1+frac1{x^2}Bigr)varphi(u),du &>int_x^infty Bigl(1+frac1{u^2}Bigr)varphi(u),du =-biggl.frac{varphi(u)}ubiggr|_x^infty =frac{varphi(x)}x. end{align}

Resolviendo para scriptstyle 1,{-},Phi(x), proporciona el límite inferior.

[editar] Funciones generadoras

[editar] Función generadora de momentos

La función generadora de momentos se define como la esperanza de e(tX). Para una distribución normal, la función generadora de momentos es:

 M_X(t) = mathrm{E} left[ e^{tX} right] = int_{-infty}^{infty}  frac{1}{sigma sqrt{2pi} } e^{-frac{(x - mu)^2}{2 sigma^2}} e^{tx} , dx = e^{mu t + frac{sigma^2 t^2}{2}}

como puede comprobarse completando el cuadrado en el exponente.

 

[editar] Función característica

La función característica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la función característica se obtiene reemplazando t por it en la función generadora de momentos.

Para una distribución normal, la función característica es[9]

  begin{align} chi_X(t;mu,sigma) &{} = M_X(i t) = mathrm{E} left[ e^{i t X} right]  &{}= int_{-infty}^{infty} frac{1}{sigma sqrt{2pi}} e^{- frac{(x - mu)^2}{2sigma^2}} e^{i t x} , dx  &{}= e^{i mu t - frac{sigma^2 t^2}{2}} end{align}

[editar] Propiedades

Algunas propiedades de la distribución normal son:

  1. Es simétrica respecto de su media, μ;
    Distribución de probabilidad alrededor de la media en una distribución N(μ, σ).
  2. La moda y la mediana son ambas iguales a la media, μ;
  3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
  4. Distribución de probabilidad en un entorno de la media:
    1. en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;
    2. en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;
    3. por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.
  5. Si X ~ N(μ, σ2) y a y b son números reales, entonces (aX + b) ~ N(+b, a2σ2).
  6. Si X ~ N(μx, σx2) e Y ~ N(μy, σy2) son variables aleatorias normales independientes, entonces:
    • Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy, σx2 + σy2) (demostración). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer).
    • Su diferencia está normalmente distribuida con V = X - Y sim N(mu_X - mu_Y, sigma^2_X + sigma^2_Y).
    • Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí.
    • La divergencia de Kullback-Leibler, D {rm KL}( X | Y ) = { 1 over 2 } left( log left( { sigma^2_Y over sigma^2_X } right) + frac{sigma^2_X}{sigma^2_Y} + frac{left(mu_Y - mu_Xright)^2}{sigma^2_Y} - 1right).
  7. Si X sim N(0, sigma^2_X) e Y sim N(0, sigma^2_Y) son variables aleatorias independientes normalmente distribuidas, entonces:
  8. Si X_1, dots, X_n son variables normales estándar independientes, entonces X_1^2 + cdots + X_n^2 sigue una distribución χ² con n grados de libertad.
  9. Si X_1,dots,X_n son variables normales estándar independientes, entonces la media muestral bar{X}=(X_1+cdots+X_n)/n y la varianza muestral S^2=((X_1-bar{X})^2+cdots+(X_n-bar{X})^2)/(n-1) son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad).

[editar] Estandarización de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la distribución normal estándar.

Si X ~ N(μ,σ2), entonces

Z = frac{X - mu}{sigma} !

es una variable aleatoria normal estándar: Z ~ N(0,1).

La transformación de una distribución X ~ N(μ, σ) en una N(0, 1) se llama normalización, estandarización o tipificación de la variable X.

Una consecuencia importante de esto es que la función de distribución de una distribución normal es, por consiguiente,

Pr(X le x) = Phi left( frac{x-mu}{sigma} right) = frac{1}{2} left( 1 + operatorname{erf} left(   frac{x-mu}{sigmasqrt{2}} right) right) .

A la inversa, si Z es una distribución normal estándar, Z ~ N(0,1), entonces

X = σZ + μ

es una variable aleatoria normal tipificada de media μ y varianza σ2.

La distribución normal estándar está tabulada (habitualmente en la forma de el valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe más arriba, de la distribución estándar. De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal.

[editar] Momentos

Los primeros momentos de la distribución normal son:

NúmeroMomentoMomento centralCumulante
011 
1μ0μ
2μ2 + σ2σ2σ2
3μ3 + 3μσ200
4μ4 + 6μ2σ2 + 3σ440
5μ5 + 10μ3σ2 + 15μσ400
6μ6 + 15μ4σ2 + 45μ2σ4 + 15σ615σ60
7μ7 + 21μ5σ2 + 105μ3σ4 + 105μσ600
8μ8 + 28μ6σ2 + 210μ4σ4 + 420μ2σ6 + 105σ8105σ80

Todos los cumulantes de la distribución normal, más allá del segundo, son cero.


Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula

 Eleft[X^{2k}right]=frac{(2k)!}{2^k k!} sigma^{2k}.

[editar] El Teorema del Límite Central

Artículo principal: Teorema del límite central
Gráfica de la función de distribución de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomial con n = 48 y p = 1/4

El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal.

La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:

  • Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np y n(1 − p) son ambos, al menos, 5; en este caso se debería aplicar una corrección de continuidad).
    La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
  • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
    La distribución normal aproximada tiene parámetros μ = σ2 = λ.

La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.

[editar] Divisibilidad infinita

Las normales tienen una distribución de probabilidad infinitamente divisible: dada una media μ, una varianza σ 2 ≥ 0, y un número natural n, la suma X1 + . . . + Xn de n variables aleatorias independientes

X_1+X_2+dots+X_n sim N(mu/n, sigma!/sqrt n),

tiene esta específica distribución normal (para verificarlo, úsese la función característica de convolución y la inducción matemática).

[editar] Estabilidad

Las distribuciones normales son estrictamente estables.

[editar] Desviación típica e intervalos de confianza

Alrededor del 68% de los valores de una distribución normal están a una distancia σ > 1 (desviación típica) de la media, μ; alrededor del 95% de los valores están a dos desviaciones típicas de la media y alrededor del 99,7% están a tres desviaciones típicas de la media. Esto se conoce como la "regla 68-95-99,7" o la "regla empírica".

Para ser más precisos, el área bajo la curva campana entre μ − nσ y μ + nσ en términos de la función de distribución normal viene dada por

begin{align}&Phi_{mu,sigma^2}(mu+nsigma)-Phi_{mu,sigma^2}(mu-nsigma) &=Phi(n)-Phi(-n)=2Phi(n)-1=mathrm{erf}bigl(n/sqrt{2},bigr),end{align}

donde erf es la función error. Con 12 decimales, los valores para los puntos 1-, 2-, hasta 6-σ son:

 n, mathrm{erf}bigl(n/sqrt{2},bigr),
1 0,682689492137 
20,954499736104
30,997300203937
40,999936657516
50,999999426697
60,999999998027

La siguiente tabla proporciona la relación inversa de múltiples σ correspondientes a unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos valores son útiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintóticamente normales):

 mathrm{erf}bigl(n/sqrt{2},bigr) n, 
0,80 1,28155 
0,901,64485
0,951,95996
0,982,32635
0,992,57583
0,9952,80703
0,9983,09023
0,9993,29052
0,99993,8906
0,999994,4172

donde el valor a la izquierda de la tabla es la proporción de valores que caerán en el intervalo dado y n es un múltiplo de la desviación típica que determina la anchura de el intervalo.

[editar] Forma familia exponencial

La distribución normal tiene forma de familia exponencial biparamétrica con dos parámetros naturales, μ y 1/σ2, y estadísticos naturales X y X2. La forma canónica tiene como parámetros {mu over sigma^2} y {1 over sigma^2} y estadísticos suficientes sum  x y -{1 over 2} sum  x^2.

[editar] Distribución normal compleja

Considérese la variable aleatoria compleja gaussiana

 Z=X+iY,

donde X e Y son variables gaussianas reales e independientes con igual varianza sigma_r^2. La función de distribución de la variable conjunta es entonces

 frac{1}{2,pi,sigma_r^2} e^{-(x^2+y^2)/(2 sigma_r ^2)}.

Como sigma_Z =sqrt{2}sigma_r, la función de distribución resultante para la variable gaussiana compleja Z es

 frac{1}{pi,sigma_Z^2} e^{-|Z|^2!/sigma_Z^2}.

[editar] Distribuciones relacionadas

  • Y˜Cauchy(μ = 0,θ = 1) es una distribución de Cauchy si Y = X1 / X2 para X1˜N(0,1) y X2˜N(0,1) son dos distribuciones normales independientes.
  • Distribución normal truncada. si X sim N(mu, sigma^2),! entonces truncando X por debajo de A y por encima de B dará lugar a una variable aleatoria de media E(X)=mu + frac{sigma(varphi_1-varphi_2)}{T},! donde T=Phileft(frac{B-mu}{sigma}right)-Phileft(frac{A-mu}{sigma}right), ; varphi_1 = varphileft(frac{A-mu}{sigma}right), ; varphi_2 = varphileft(frac{B-mu}{sigma}right) y varphi es la función de densidad de una variable normal estándar.

[editar] Estadística descriptiva e inferencial

[editar] Resultados

De la distribución normal se derivan muchos resultados, incluyendo rangos de percentiles ("percentiles" o "cuantiles"), curvas normales equivalentes, stanines, z-scores, y T-scores. Además, un número de procedimientos de estadísticos de comportamiento están basados en la asunción de que esos resultados están normalmente distribuidos. Por ejemplo, el test de Student y el análisis de varianza (ANOVA) (véase más abajo). La gradación de la curva campana asigna grados relativos basados en una distribución normal de resultados.

[editar] Tests de normalidad

Artículo principal: Test de normalidad

Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribución normal. La hipótesis nula es, en estos casos, si el conjunto de datos es similar a una distribución normal, por lo que un P-valor suficientemente pequeño indica datos no normales.

[editar] Estimación de parámetros

[editar] Estimación de parámetros de máxima verosimilitud

Supóngase que

X_1,dots,X_n

son independientes y cada una está normalmente distribuida con media μ y varianza σ 2 > 0. En términos estadísticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida. Se desa estimar la media poblacional μ y la desviación típica poblacional σ, basándose en las valores observados de esta muestra. La función de densidad conjunta de estas n variables aleatorias independientes es

begin{align}f(x_1,dots,x_n;mu,sigma) &= prod_{i=1}^n varphi_{mu,sigma^2}(x_i) &=frac1{(sigmasqrt{2pi})^n}prod_{i=1}^n expbiggl(-{1 over 2} Bigl({x_i-mu over sigma}Bigr)^2biggr), quad(x_1,ldots,x_n)inmathbb{R}^n. end{align}

Como función de μ y σ, la función de verosimilitud basada en las observaciones X1, ..., Xn es

 L(mu,sigma) = frac C{sigma^n} expleft(-{sum_{i=1}^n (X_i-mu)^2 over 2sigma^2}right), quadmuinmathbb{R}, sigma>0,

con alguna constante C > 0 (de la cual, en general, se permitiría incluso que dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la función de log-verosimilitud respecto a los parámetros tenidos en cuenta, véase más abajo).

En el método de máxima verosimilitud, los valores de μ y σ que maximizan la función de verosimilitud se toman como estimadores de los parámetros poblacionales μ y σ.

Habitualmente en la maximización de una función de dos variables, se podrían considerar derivadas parciales. Pero aquí se explota el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. No obstante, encontramos que ese valor de μ, entonces se sustituye por μ en la función de verosimilitud y finalmente encontramos el valor de σ que maximiza la expresión resultante.

Es evidente que la función de verosimilitud es una función decreciente de la suma

sum_{i=1}^n (X_i-mu)^2. ,!

Así que se desea el valor de μ que minimiza esta suma. Sea

overline{X}_n=(X_1+cdots+X_n)/n

la media muestral basada en las n observaciones. Nótese que

 begin{align} sum_{i=1}^n (X_i-mu)^2 &=sum_{i=1}^nbigl((X_i-overline{X}_n)+(overline{X}_n-mu)bigr)^2 &=sum_{i=1}^n(X_i-overline{X}_n)^2 + 2(overline{X}_n-mu)underbrace{sum_{i=1}^n (X_i-overline{X}_n)}_{=,0} + sum_{i=1}^n (overline{X}_n-mu)^2 &=sum_{i=1}^n(X_i-overline{X}_n)^2 + n(overline{X}_n-mu)^2. end{align}

Sólo el último término depende de μ y se minimiza por

widehat{mu}_n=overline{X}_n.

Esta es la estimación de máxima verosimilitud de μ basada en las n observaciones X1, ..., Xn. Cuando sustituimos esta estimación por μ en la función de verosimilitud, obtenemos

L(overline{X}_n,sigma) = frac C{sigma^n} expbiggl(-{sum_{i=1}^n (X_i-overline{X}_n)^2 over 2sigma^2}biggr), quadsigma>0.

Se conviene en denotar la "log-función de verosimilitud", esto es, el logaritmo de la función de verosimilitud, con una minúscula , y tenemos

ell(overline{X}_n,sigma)=log C-nlogsigma-{sum_{i=1}^n(X_i-overline{X}_n)^2 over 2sigma^2}, quadsigma>0,

entonces

 begin{align} {partial over partialsigma}ell(overline{X}_n,sigma) &=-{n over sigma} +{sum_{i=1}^n (X_i-overline{X}_n)^2 over sigma^3} &=-{n over sigma^3}biggl(sigma^2-{1 over n}sum_{i=1}^n (X_i-overline{X}_n)^2 biggr), quadsigma>0. end{align}

Esta derivada es positiva, cero o negativa según σ2 esté entre 0 y

hatsigma_n^2:={1 over n}sum_{i=1}^n(X_i-overline{X}_n)^2,

o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observación, lo que significa que n = 1, o si X1 = ... = Xn, lo cual sólo ocurre con probabilidad cero, entonces hatsigma{}_n^2=0 por esta fórmula, refleja el hecho de que en estos casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero.)

Consecuentemente esta media de cuadrados de residuos es el estimador de máxima verosimilitud de σ2, y su raíz cuadrada es el estimador de máxima verosimilitud de σ basado en las n observaciones. Este estimador hatsigma{}_n^2 es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n − 1) veces este estimador.

[editar] Sorprendente generalización

La derivada del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es despreciable. Involucra el teorema espectral y la razón por la que puede ser mejor para ver un escalar como la traza de una matriz 1×1 matrix que como un mero escalar. Véase estimación de la covarianza de matrices.

[editar] Estimación insesgada de parámetros

El estimador de máxima verosimilitud de la media poblacional μ de una muestra es un estimador insesgado de la media. El estimador de máxima verosimilitud de la varianza es insesgado si asumimos que la población es conocida a priori, pero en la práctica esto no ocurre.No obstante, si nos enfrentamos con una muestra y no sabemos nada de la media o la varianza de la población de la que se ha extraído, como se asumía en la derivada de máxima verosimilitud de arriba, entonces el estimador de máxima verosimilitud de la varianza es sesgado. Un estimador insesgado de la varianza σ2 es:

 S^2 = frac{1}{n-1} sum_{i=1}^n (X_i - overline{X})^2.

Esta "varianza muestral" sigue una distribución Gamma si todas las Xi son independientes e idénticamente distribuidas:

 S^2 sim operatorname{Gamma}left(frac{n-1}{2},frac{2 sigma^2}{n-1}right),

con media operatorname{E}(S^2)=sigma^2 y varianza operatorname{Var}(S^2)=2sigma^4/(n-1).

La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la estimación de máxima verosimilitud de la varianza. No obstante, ni esta, ni la raíz cuadrada de la varianza muestral proporcionan un estimador insesgado para la desviación típica (véase estimación insesgada de la desviación típica para una fórmula particular para la distribución normal.

[editar] Incidencia

Las distribuciones aproximadamente normales aparecen por doquier, como queda explicado por el teorema central del límite. Cuando en un fenómeno se sospecha la presencia de un gran número de pequeñas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones serán "normales". Hay métodos estadísticos para probar empíricamente esta asunción, por ejemplo, el test de Kolmogorov-Smirnov.

Hay causas que pueden actuar de forma multiplicativa (más que aditiva). En este caso, la asunción de normalidad no está justificada y es el logaritmo de la variable en cuestión el que estaría normalmente distribuido. La distribución de las variables directamente observadas en este caso se denomina log-normal.

Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideración, la asunción de normalidad no está tampoco justificada. Esto es cierto incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribución completa será una superposición de variables normales, que no es en general normal. Ello está relacionado con la teoría de errores (véase más abajo).

A continuación se muestran una lista de situaciones que estarían, aproximadamente, normalmente distribuidas. Más abajo puede encontrarse una discusión detallada de cada una de ellas:

  • En problemas de recuento, donde el teorema central del límite incluye una aproximación de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles están involucradas, tales como:
  • En medidas fisiológicas de especímenes biológicos:
    • El logaritmo de las medidas del tamaño de tejidos vivos (longitud, altura, superficie de piel, peso);
    • La longitud de apéndices inertes (pelo, garras, rabos, dientes) de especímenes biológicos en la dirección del crecimento;
    • Otras medidas fisiológicas podrían estar normalmente distribuidas, aunque no hay razón para esperarlo a priori;
  • Se asume con frecuencia que los errores de medida están normalmente distribuidos y cualquier desviación de la normalidad se considera una cuestión que debería explicarse;
  • Variables financieras, en el modelo Black-Scholes:
    • Cambios en el logaritmo de

Changes in the logarithm of tasas de cambio, índices de precios, índices de existencias de mercado; estas variables se comportan como el interés compuesto, no como el interés simple, por tanto, son multiplicativas;

    • Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas pesadas, como puede verse en crash de las existencias de mercado;
    • Otras variables financieras podrían estar normalmente distribuidas, pero no hay razón para esperarlo a priori;
  • Intensidad de la luz:
    • La intensidad de la luz láser está normalmente distribuida;
    • La luz térmica tiene una distribución de Bose-Einstein en escalas de tiempo muy breves y una distribución normal en grandes escalas de tiempo debido al teorema central del límite.

Es relevante para la biolgía y la economía el hecho de que los sistemas complejos tienden a mostrar power laws más que normal.

[editar] Recuento de fotones

La intensidad de la luz de una sola fuente varía con el tiempo, así como las fluctuaciones térmicas que pueden observarse si la luz se analiza a una resolución suficientemente alta. La mecánica cuántica interpreta las medidas de la intensidad de la luz como un recuento de fotones, donde la asunción natural es usar la distribución de Poisson. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximación Poisson - Normal es apropiada.

[editar] Medida de errores

La normalidad es la asunción central de la teoría matemática de errores. De forma similar en el ajuste de modelos estadístico, un indicador de la bondad del ajuste es que el error residual (así es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. La asunción es que cualquier desviación de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teoría de errores, la normalidad es la única observación que no necesita ser explicada, sino que es esperada. No obstante, si los datos originales no están normalmente distribuidos (por ejemplo, si siguen una distribución de Cauchy, entonces los residuos tampoco estarán normalmente distribuidos. Este hecho es ignorado habitualmente en la práctica.

Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que están agrupados entorno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta, se asume que el error que queda debe ser el resultado de un gran número de muy pequeños y aditivos efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemáticos que no han sido tomados en cuenta. Puede debatirse si esta asunción es válida.

Una famosa observación atribuida a Gabriel Lippmann dice:[cita requerida]

Todo el mundo cree en la ley normal de los errores: los matemáticos, porque piensan que es un hecho experimental; y los experimentadores, porque suponen que es un teorema matemático

Otra fuente podría ser Henri Poincaré.

[editar] Características físicas de especímenes biológicos

Los tamaños de los animales adultos siguen aproximadamente una distribución lognormal. La evidencia y explicación basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relativo, de 1932, por Julian Huxley.

Las diferencias de tamaño debido a dimorfismos sexuales u otros polimorfismos de insectos, como la división social de las abejas en obreras, zánganos y reinas, por ejemplo, hace que la distribución de tamaños se desvíe hacia la lognormalidad.

La asunción de que el tamaño lineal de los especímenes biológicos es normal (más que lognormal) nos lleva a una distribución no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas sólo mantienen las transformaciones lineales). A la inversa, asumir que el peso sigue una distribución normal implica longitudes no normales. Esto es un problema porque, a priori, no hay razón por la que cualquiera de ellas (longitud, masa corporal u otras) debería estar normalmente distribuida. Las distribuciones lognormales, por otro lado, se mantienen entre potencias, así que el "problema" se desvanece si se asume la lognormalidad.

Por otra parte, hay algunas medidas biológicas donde se asume normalidad, tales como la presión sanguínea en humanos adultos. Esta asunción sólo es posible tras separar a hombres y mujeres en distintas poblaciones, cada una de las cuales está normalmente distribuida.

[editar] Variables financieras

El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras.

Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribución normal. Esta aproximación se ha modificado desde entonces ligeramente. A causa de la naturaleza multiplicativa del interés compuesto, los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". Como tales, sus cambios periódicos (por ejemplo, cambios anuales) no son normales, sino lognormales. Esta es todavía la hipótesis más comúnmente aceptada en economía.

No obstante, en realidad las variables financieras exhiben colas pesadas y así, la asunción de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a este modelo por parte de matemáticos como Benoît Mandelbrot, quien observó que los cambios en el logaritmo durante breves periodos de tiempo (como un día) se aproximan bien por distribuciones que no tienen una varianza finita y, por consiguiente, el teorema central del límite no puede aplicarse. Más aún, la suma de muchos de tales cambios sigue una distribución de log-Levy.

[editar] Distribuciones en tests de inteligencia

A veces, la dificultad y número de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos. Más aún, las puntuaciones "en crudo" se convierten a valores que marcan el cociente intelectual ajustándolas a la distribución normal. En cualquier caso se trata de un resultado causado deliberadamente por la construcción del test o de una interpretación de las puntuaciones que sugiere normalidad para la mayoría de la población. Sin embargo, la cuestión acerca de si la inteligencia en sí está normalmente distribuida es más complicada porque se trata de una variable latente y, por consiguiente, no puede observarse directamente.

[editar] Ecuación de difusión

La función de densidad de la distribución normal está estrechamente relacionada con la ecuación de difusión (homogénea e isótropa) y, por tanto, también con la ecuación de calor. Esta ecuación diferencial parcial describe el tiempo de evolución de una función de densidad bajo difusión. En particular, la función de densidad de masa

varphi_{0,t}(x) = frac{1}{sqrt{2pi t,}}expleft(-frac{x^2}{2t}right),

para la distribución normal con esperanza 0 y varianza t satisface la ecuación de difusión:

 frac{partial}{partial t} varphi_{0,t}(x) = frac{1}{2} frac{partial^2}{partial x^2} varphi_{0,t}(x).

Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac, lo cual significa, esencialemente que toda la masa está inicialmente concentrada en un punto, entonces la función de densidad de masa en el tiempo t tendrá la forma de la función de densidad de la normal, con varianza creciendo linealmente con t. Esta conexión no es coincidencia: la difusión se debe a un movimiento Browniano que queda descrito matemáticamente por un proceso de Wiener, y tal proceso en un tiempo t también resultará normal con varianza creciendo linealmente con t'.

Más generalmente, si la densidad de masa inicial viene dada por una función φ(x), entonces la densidad de masa en un tiempo t vendrá dada por la convolución de φ y una función de densidad normal.

[editar] Uso en estadística computacional

[editar] Generación de valores para una variable aleatoria normal

Para simulaciones por ordenador es útil, en ocasiones, generar valores que podrían seguir una distribución normal. Hay varios métodos y el más básico de ellos es invertir la función de distribución de la normal estándar. Se conocen otros métodos más eficientes, uno de los cuales es la transformacion de Box-Muller. Un algoritmo incluso más rápido es el algoritmo zigurat. Ambos se discuten más abajo. Una aproximación simple a estos métodos es programarlos como sigue: simplemente súmense 12 desviaciones uniformes (0,1) y réstense 6 (la mitad de 12). Esto es bastante útil en muchas aplicaciones. La suma de esos 12 valores sigue la distribución de Irwin-Hall; son elegidos 12 para dar a la suma una varianza de uno, exactamente. Las desviaciones aleatorias resultantes están limitadas al rango (−6, 6) y tienen una densidad que es una doceava sección de una aproximación polinomial de undécimo orden a la distribución normal .[10]

El método de Box-Muller dice que, si tienes dos números aleatorios U y V uniformemente distribuidos en (0, 1], (por ejemplo, la salida de un generador de números aleatorios), entonces X e Y son dos variables aleatorias estándar normalmente distribuidas, donde:

Y = sqrt{- 2 ln U} , sin(2 pi V) .

Esta formulación aparece porque la distribución χ² con dos grados de libertad (véase la propiedad 4, más arriba) es una variable aleatoria exponencial fácilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). Así, un ángulo elegido uniformemente alrededor de un círculo vía la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas.

Un método mucho más rápido que la transformación de Box-Muller, pero que sigue siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97% de los casos usa sólo dos números aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicación y un test-si . Sólo un 3% de los casos donde la combinación de estos dos cae fuera del "corazón del zigurat", un tipo de rechazo muestral usando logaritmos, exponenciales y números aleatorios más uniformes deberían ser empleados.

Hay también alguna investigación sobre la conexión entre la rápida transformación de Hadamard y la distribución normal, en virtud de que la transformación emplea sólo adición y sustracción y por el teorema central del límite los números aleatorios de casi cualquier distribución serán transformados en la distribución normal. En esta visión se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.

[editar] Aproximaciones numéricas de la distribución normal y su función de distribución

La función de distribución normal se usa extensamente en computación científica y estadística. Por consiguiente, ha sido implementada de varias formas.

La Biblioteca Científica GNU calcula valores de la función de distribución normal estándar usando aproximaciones por funciones racionales a trozos. Otro método de aproximación usa polinomios de tercer grado en intervalos.[11] El artículo sobre el lenguaje de programación bc proporciona un ejemplo de cómo computar la función de distribución en GNU bc.

Para una discusión más detallada sobre cómo calcular la distribución normal, véase la sección 3.4.1C. de The Art of Computer Programming (El arte de la programación por ordenador), de Knuth.

[editar] Uso de tablas

La probabilidad de que una variable aleatoria (que sigue una distribución normal) se encuentre entre dos valores determinados será en general difícil de calcular (hay que usar la integral de la función de probabilidad). Para ello, existen tablas con los valores correspondientes, si bien éstos se calculan para la distribución Normal Tipificada.

Básicamente, se busca un valor de x (por ejemplo, x=0,37 ,!), y la tabla nos da la probabilidad de que Zle x ,!: P(Z_{(0,1)} le 0,37)= 0,644 308 699 ,!

En el caso de que la distribución no sea estándar, por ejemplo, N(mu ,sigma^2) ,! con mu =2 ,! y sigma^2 =9 ,!, tendremos que tipificar la variable: P(X_{(2,3)} le 2,6)= Pleft (frac{X_{(2,3)} -mu }{sigma}le frac{2,6-mu}{sigma} right)=P left(Z_{(0,1)} le frac{2,6-2}{3}right)=P left(Z_{(0,1)} le 0,2 right) ,! Se obtiene una variable Z normal, que además está tipificada. Si ahora se consulta en la tabla, P(X_{(2,3)} le 2,6) = P(Z_{(0,1)} le 0,2) = 0,579 259 687  ,!

[editar] Véase también

[editar] Referencias

  1. Es una consecuencia del Teorema Central del Límite
  2. Abraham de Moivre, "Approximatio ad Summam Terminorum Binomii (a + b)n in Seriem expansi" (impreso el 12 de noviembre de 1733 en Londres para una edición privada). Este panfleto se reimprimió en: (1) Richard C. Archibald (1926) “A rare pamphlet of Moivre and some of his discoveries,” Isis, vol. 8, páginas 671-683; (2) Helen M. Walker, “De Moivre on the law of normal probability” en David Eugene Smith, A Source Book in Mathematics [Nueva York, Nueva York: McGraw-Hill, 1929; reimpresión: Nueva York, Nueva York: Dover, 1959], vol. 2, páginas 566-575.; (3) Abraham De Moivre, The Doctrine of Chances (2ª ed.) [Londres: H. Woodfall, 1738; reimpresión: Londres: Cass, 1967], páginas 235-243; (3ª ed.) [Londres: A Millar, 1756; reimpresión: Nueva York, Nueva York: Chelsea, 1967], páginas 243-254; (4) Florence N. David, Games, Gods and Gambling: A History of Probability and Statistical Ideas [Londres: Griffin, 1962], Apéndice 5, páginas 254-267.
  3. Havil, 2003
  4. Wussing, Hans. «Lección 10». Lecciones de Historia de las Matemáticas (1ª (castellano) edición). Siglo XXI de España Editores, S.A.. pp. 190. ISBN 84-323-0966-4. http://books.google.es/books?id=IG3_b5Xm8PMC. «"La distribución normal y sus aplicaciones a la teoría de errores se asocia a menudo con el nombre de Gauss, quien la descubrió -igual que Laplace- independientemente; no obstante ya había sido estudiada por de Moivre» 
  5. Weisstein, Eric W. «Normal Distribution» (en inglés). MathWorld. Wolfram Research. Consultado el 18 de marzo de 2009.
  6. La función Q
  7. http://www.eng.tau.ac.il/~jo/academic/Q.pdf
  8. Weisstein, Eric W. «Normal Distribution Function» (en inglés). MathWorld. Wolfram Research.
  9. M.A. Sanders. «Characteristic function of the univariate normal distribution». Consultado el 06-03-2009.
  10. Johnson NL, Kotz S, Balakrishnan N. (1995) Continuous Univariate Distributions Volume 2, Wiley. Equation(26.48)
  11. Andy Salter. «B-Spline curves». Consultado el 05-12-2008.

[editar] Enlaces externos

MATEMÁTICAS: ¿HA PENSADO SI LOS NÚMEROS SON SIMÉTRICOS, OPUESTOS...?. ¿HA PENSADO EN LA INTELIGENCIA Y LA FRONTALIDAD?. La simetría es la exacta correspondencia de todas las partes de una figura respecto de un centro, un eje o un plano. La simetría es un rasgo característico de formas geométricas, sistemas, ecuaciones, y otros objetos materiales o entidades abstractas, relacionada con su invariancia bajo ciertas transformaciones, movimientos o intercambios. En condiciones formales, decimos que un objeto es simétrico en lo que concierne a una operación matemática dada, si, cuando aplicado al objeto, esta operación no cambia el objeto o su aspecto. Dos objetos son simétricos uno al otro en lo que concierne a un grupo dado de operaciones si uno es obtenido de otro por algunas operaciones (y viceversa). En la geometría 2D las clases principales de simetría de interés son las que conciernen a las isometrías de un espacio euclídeo: traslaciones, rotaciones, reflexiones y reflexiones que se deslizan.

Simetría

De Wikipedia, la enciclopedia libre
El hombre Vitrubio, de Leonardo da Vinci (ca. 1487), es una representación frecuente de la simetría del cuerpo humano, y por extensión del mundo natural.

La simetría es la exacta correspondencia de todas las partes de una figura respecto de un centro, un eje o un plano.

La simetría es un rasgo característico de formas geométricas, sistemas, ecuaciones, y otros objetos materiales o entidades abstractas, relacionada con su invariancia bajo ciertas transformaciones, movimientos o intercambios.

En condiciones formales, decimos que un objeto es simétrico en lo que concierne a una operación matemática dada, si, cuando aplicado al objeto, esta operación no cambia el objeto o su aspecto. Dos objetos son simétricos uno al otro en lo que concierne a un grupo dado de operaciones si uno es obtenido de otro por algunas operaciones (y viceversa). En la geometría 2D las clases principales de simetría de interés son las que conciernen a las isometrías de un espacio euclídeo: traslaciones, rotaciones, reflexiones y reflexiones que se deslizan.

La simetría también puede ser encontrado en organismos vivos.

Contenido

[ocultar]

[editar] Simetría en geometría

Grupo de simetría de la esfera.

Cuando hablamos de objetos físicos o elementos geométricos el concepto de simetría está asociado a transformaciones geométricas tales como las rotaciones, las reflexiones o las traslaciones. Así se dice que un objeto presenta:

  • Simetría esférica si existe simetría bajo cualquier rotación posible, matemáticamente equivale a que el grupo de simetría de un objeto físico o entidad matemática sea SO(3).
  • Simetría cilíndrica o axial, si existe un eje tal que los giros alrededor de él no conducen a cambios de posición en el espacio, matemáticamente está asociado a un grupo de isometría SO(2).
  • Simetría reflectiva,se define por la existencia de un único plano, matemáticamente está asociado al grupo SO(1) o su representación equivalente mathbb{Z}_2.

Si tratamos además de regiones geométricas infinitas, no acotadas, además puede existir simetría traslacional

[editar] Simetría en física

En física el concepto de simetría puede formularse en una forma no geométrica. Si K es un conjunto de objetos matemáticos del mismo tipo (funciones, formas geométricas, ecuaciones, ...) y G es un grupo de transformaciones que actúa sobre K de tal manera que:

g (in G): K to K

Se dice que un elemento de k0 presenta simetría si:[1]

forall gin G: g(k_0) = k_0

Así por ejemplo varias leyes de conservación de la física son consecuencia de la existencia de simetrías abstractas del lagrangiano, tal como muestra el teorema de Noether. En ese caso K representaría el conjunto de lagrangianos admisibles, k0 el lagrangian[2]

  • Ejemplo 1. Como primer ejemplo consideremos un electrón moviéndose entre dos placas infinitas cargadas uniformemente (dicho sistema se aproxima cierto tipo de condensadores), dado que cualquier tralación paralela a los planos constituye una simetría del sistema físico, entonces tanto la fuerza paralela a dichos planos es nula y por tanto la velocidad paralela a los planos es constante.
  • Ejemplo 2. Consideremos un satélite orbitando alredodor de un astro (planeta o estrella) con simetría esférica perfecta, consideremos además que la velocidad del satelite sea perpendicular a la línea entre el centro del satélite y el astro. En ese caso, el lagrangiano es totalmente invariante respecte a rotaciones según un eje que pase por el centro de la fuente del campo gravitatorio. En este caso debido a la simetría de rotación tanto del lagrangiano como de las condiciones iniciales del movimiento, la velocidad perpendicular al planeta es constante y la trayectoria es un círculo invariante bajo una rotación perpendicular al plano de la órbita.

Estos dos ejemplos anteriores son casos del teorema de Noether, un resultado general que establece que si existe un grupo uniparamétrico de simetría G para el lagrangiano tal que:

forall phi_lambdain G: L(phi_lambda(mathbf{q}),phi_lambda(dotmathbf{q}),t) =  L(mathbf{q},dotmathbf{q},t)

Entonces la cantidad escalar:

left langle left . frac{dphi_lambda}{dlambda}right vert_{lambda=0}, frac{dL}{ddotmathbf{q}}rightrangle = v_1p_1 + ... + v_Np_N

Siendo v el campo vectorial que general el grupo uniparamétrico de transformaciones de simetría, y pi los momentos conjungados de las coordenadas generalizadas de posición.

[editar] Simetría en química

Artículo principal: Simetría molecular

En química la simetría geométrica de las moléculas es importante, particularmente en química orgánica. Además propiedades como su momento dipolar y las transiciones espectroscópicas permitidas (basadas en reglas de selección como la regla de Laporte) pueden predecirse o ser explicadas a partir de la simetría de la molécula. Las simetrías que aparecen en química están asociadas a grupos finitos de isometrías, en concreto son grupos puntuales de transformaciones de isometría.

[editar] Simetría en biología

Ilustración de los distintos tipos de simetría en las formas orgánicas (Field Museum, Chicago).

Simetría en biología es la equilibrada distribución en el cuerpo de los organismos de aquellas partes que aparecen duplicadas. Los planes corporales de la mayoría de organismos pluricelulares exhiben alguna forma de simetría, bien sea simetría radial o simetría bilateral. Una pequeña minoría no presenta ningún tipo de simetría (son asimétricos).

[editar] Simetría radial

Artículo principal: Simetría radial (biología)

La simetría radial es la simetría definida por un eje heteropolar (distinto en sus dos extremos). El extremo que contiene la boca se llama lado oral, y su opuesto lado aboral o abactinal. Sobre este eje, se establecen planos principales de simetría; dos perpendiculares que definen las posiciones per-radiales. Las estructuras en otros planos (bisectrices de los per-radiales) quedan en posiciones inter-radiales. La zona entre los per-radiales y los inter-radiales es la zona ad-radial.

[editar] Simetría bilateral

Artículo principal: Simetría bilateral

La mayoría de especies animales tiene simetría bilateral y pertenece por tanto al grupo Bilateria, aunque hay especies como los erizos y las estrellas de mar que presentan simetría radial secundaria (las fases de desarrollo tempranas y las larvas poseen simetría bilateral que posteriormente se pierde en el adulto). La simetría bilateral permite la definición de un eje corporal en la dirección del movimiento, lo que favorece la formación de un sistema nervioso centralizado y la cefalización.

[editar] Simetría en música

En música clásica, existen composiciones en las que podemos encontrar distribuciones de las notas generadas mediante simetría bilateral, traslación o giros de media vuelta. Algunos ejemplos de autores y composiciones conocidas, son: Bach Preludio, Domenico Scarlatti Sonata en G mayor, Robert Schumann Lotosblume, o Richard Wagner Die Meiestersinger.

[editar] Simetría en alimentación de AC

En el contexto de la electrónica de radiofrecuencia, se habla de una alimentación simétrica de AC cuando ninguno de los conductores está a la masa. Cuando uno de los conductores está a la masa y el otro experimenta las variaciones de tensión, se dice que la alimentación es asimétrica.

Existen importantes aplicaciones tecnológicas basadas en la alimentación simétrica, ya que la alimentación simétrica tiene la gran ventaja de que la pérdida de potencia en la línea de transmisión es un orden de magnitud menor que la alimentación asimétrica por cable coaxial.

  • En efecto, el campo alterno generado por el conductor ascendente es cancelado por el campo generado por su homólogo descendente.
  • Además, la alimentación simétrica en delta permite la simplificación de la construcción.

La alimentación simétrica es por lo tanto la alimentación preferida en la operación QRP y en el modo EME, modos donde cada dB de ganancia cuenta.

[editar] Referencias

  1. Wald, 1984, p. 441-444.
  2. jkj

[editar] Bibliografía

[editar] Enlaces

MATEMÁTICAS: SISTEMAS. Un sistema (del latín systema, proveniente del griego σύστημα) es un conjunto de funciones, virtualmente referenciada sobre ejes, bien sean estos reales o abstractos. También suele definirse como un conjunto de elementos dinámicamente relacionados formando una actividad para alcanzar un objetivo operando sobre datos, energía o materia para proveer información.

Sistema

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Sistema (desambiguación).

Un sistema (del latín systema, proveniente del griego σύστημα) es un conjunto de funciones, virtualmente referenciada sobre ejes, bien sean estos reales o abstractos. También suele definirse como un conjunto de elementos dinámicamente relacionados formando una actividad para alcanzar un objetivo operando sobre datos, energía o materia para proveer información.

Un sistema es un conjunto de partes o elementos organizadas y relacionadas, que interactúan entre en si, para llegar a un mismo objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y tienen como resultado que proveen (salida) información, energía o materia.

Los sistemas tienen límites o fronteras, que los diferencian del ambiente. Ese limite puede ser físico (el gabinete de una computadora) o conceptual. Si hay algún intercambio entre el sistema y el ambiente a través de ese límite, el sistema es abierto, de lo contrario el sistema seria cerrado. El ambiente es el medio externo que envuelve física o conceptualmente a un sistema. El ambiente también puede ser una amenaza para el sistema.

Contenido

[ocultar]

[editar] Sistemas reales y sistemas conceptuales

Un sistema conceptual o sistema ideal es un conjunto organizado de definiciones, nombres, símbolos y otros instrumentos de pensamiento o comunicación. Ejemplos de sistemas conceptuales son las matemáticas, la lógica formal, la nomenclatura binomial o la notación musical.

Un sistema es un conjunto de elementos relacionados intimamente entre sí para alcanzar un objetivo.

Un sistema real es una entidad material formada por partes organizadas (o sus "componentes") que interactúan entre sí de manera que las propiedades del conjunto, sin contradecirlas, no pueden deducirse por completo de las propiedades de las partes. Tales propiedades se denominan propiedades emergentes.

Los sistemas reales intercambian con su entorno energía, información y, en la mayor parte de los casos, también materia. Una célula, un ser vivo, la Biosfera o la Tierra entera son ejemplos de sistemas naturales. El concepto se aplica también a sistemas humanos o sociales, como una sociedad entera, la administración de un estado, un ejército o una empresa. O a una lengua, que es un sistema conceptual complejo en cuya aparición y evolución participan la biología y la cultura.


Encontrar lo común a entidades muy diferentes. El esfuerzo por encontrar leyes generales del comportamiento de los sistemas reales es el que funda la Teoría de sistemas y, más en general, aquella tendencia de la investigación a la que se alude como pensamiento sistémico o Sistémica, en cuyo marco se encuentran disciplinas y teorías como la Cibernética, la Teoría de la información, la Teoría de juegos, la Teoría del caos y otras.

[editar] Tipos de sistemas

En cuanto a su constitución, pueden ser físicos o abstractos:

  • Sistemas físicos o concretos: compuestos por equipos, maquinaria, objetos y cosas reales. El hardware.
  • Sistemas abstractos: compuestos por conceptos, planes, hipótesis e ideas. Muchas veces solo existen en el pensamiento de las personas. Es el software.

En cuanto a su naturaleza, pueden cerrados o abiertos:

  • Sistemas cerrados: no presentan intercambio con el medio ambiente que los rodea, son herméticos a cualquier influencia ambiental. No reciben ningún recurso externo y nada produce que sea enviado hacia fuera. En rigor, no existen sistemas cerrados. Se da el nombre de sistema cerrado a aquellos sistemas cuyo comportamiento es determinista y programado y que opera con muy pequeño intercambio de energía y materia con el ambiente. Se aplica el término a los sistemas completamente estructurados, donde los elementos y relaciones se combinan de una manera peculiar y rígida produciendo una salida invariable, como las máquinas.
  • Sistemas abiertos: presentan intercambio con el ambiente, a través de entradas y salidas. Intercambian energía y materia con el ambiente. Son adaptativos para sobrevivir. Su estructura es óptima cuando el conjunto de elementos del sistema se organiza, aproximándose a una operación adaptativa. La adaptabilidad es un continuo proceso de aprendizaje y de auto-organización.
  • Sistemas aislados: son aquellos sistemas en los que no se produce intercambio de materia ni energìa.

Los sistemas abiertos no pueden vivir aislados. Los sistemas cerrados, cumplen con el segundo principio de la termodinámica que dice que "una cierta cantidad llamada entropía, tiende a aumentar al máximo".

Existe una tendencia general de los eventos en la naturaleza física en dirección a un estado de máximo desorden. Los sistemas abiertos evitan el aumento de la entropía y pueden desarrollarse en dirección a un estado de creciente orden y organización (entropía negativa). Los sistemas abiertos restauran sus propia energía y reparan pérdidas en su propia organización. El concepto de sistema abierto se puede aplicar a diversos niveles de enfoque: al nivel del individuo, del grupo, de la organización y de la sociedad.

[editar] Tipos de sistemas reales y orgánicos

Los sistemas reales pueden ser abiertos, cerrados o aislados, según que realicen o no intercambios con su entorno. Un sistema abierto es un sistema que recibe flujos (energía y materia) de su ambiente, cambiando o ajustando su comportamiento o su estado según las entradas que recibe. Los sistemas abiertos, por el hecho de recibir energía, pueden realizar el trabajo de mantener sus propias estructuras e incluso incrementar su contenido de información (mejorar su organización interna).

  • Un sistema abierto puede compartir materia o energía con su medio ambiente.
  • Un sistema cerrado no puede compartir materia, pero si puede compartir energía con su medio ambiente.
  • Un sistema aislado no puede compartir ni energía ni materia con su medio ambiente.

Una pared sirve para aislar un sistema con su medio ambiente, una pared puede ser rígida o móvil, impermeable o no impermeable y adiabática o no adiabática, dependiendo si conduce o no calor, conductora o no conductora de energía eléctrica e incluso puede ser aislante de frecuencias de audio.

Un sistema cerrado no necesariamente tiene que ser aislado, en cambio un sistema aislado si que tiene que ser cerrado.

Un sistema rodeado por una pared rígida, impermeable, adiabática, no conductora y aislante de frecuencias de audio es un sistema aislado.

Cuando un sistema tiene la organización necesaria para controlar su propio desarrollo, asegurando la continuidad de su composición y estructura (homeostasis) y la del conjunto de flujos y transformaciones con que funciona (homeorresis), mientras las perturbaciones producidas desde su entorno no superen cierto grado, se denomina sistema autopoyético.

La expresión sistemas cibernéticos se les aplica a éstos por su capacidad de control autónomo, dependiente de la existencia de mecanismos de retroalimentación negativa. Los mismos son llamados sistemas disipativos porque la conservación del orden (información) en su seno, y más su ampliación, requieren la disipación permanente de energía.

Los sistemas complejos, cibernéticos, autoorganizados y disipativos son a la vez sistemas teleológicos (sistemas adaptativos), que requieren para ser descritos un lenguaje finalístico, que se refiere a sus procesos como funciones y recurre constantemente a explicaciones que empiezan por «para».

[editar] Otras aplicaciones del término

[editar] En el arte

Se considera que el arte es un sistema porque es un conjunto de elementos que se relacionan entre sí. El sistema del arte esta compuesto por un conjunto de elementos que se denominan arte. Esos elementos son por ejemplo: la cultura, las pinturas, o formas de expresión realizadas por el hombre. Este sistema se puede considerar un sistema abierto porque recibe influencia y a su vez influye en otros sistemas por estar dentro de otro sistema más grande. Recibe influencia del mundo científico, de los sistemas económicos, religiones, etc.

[editar] En matemáticas

El cálculo entre distintos sistemas a diferentes jerarquías se realiza mediante el cálculo de transformación. Cada sistema tiene un conjunto de ejes, a su vez cada eje puede ser la referencia a la actividad de otro sistema. Para reubicar los valores de los sistemas a diferentes jerarquías sobre un eje de referencias, se usan transformadas destinadas a tratar las referencias conforme al espacio o área de referencia final. Así pueden haber transformadas directas e inversas. No puede existir transformación si previamente no ha habido una integración.

[editar] Véase también

MATEMÁTICAS: SI NO SEGUIMOS ESTE ORDEN: GRUPO, PAREJA, FAMILIA, ¿HAY ORDEN EN EL SISTEMA? Uno de los significados de orden es la propiedad que emerge en el momento en que varios sistemas abiertos, pero en origen aislados, llegan a interactuar por coincidencia en el espacio y el tiempo, produciendo, mediante sus interacciones naturales, una sinergia que ofrece como resultado una realimentación en el medio, de forma que los elementos usados como materia prima, dotan de capacidad de trabajo a otros sistemas en su estado de materia elaborada.

Orden

De Wikipedia, la enciclopedia libre
Este artículo trata sobre el concepto de orden. Para otros usos de este término, véase Orden (desambiguación).

Uno de los significados de orden es la propiedad que emerge en el momento en que varios sistemas abiertos, pero en origen aislados, llegan a interactuar por coincidencia en el espacio y el tiempo, produciendo, mediante sus interacciones naturales, una sinergia que ofrece como resultado una realimentación en el medio, de forma que los elementos usados como materia prima, dotan de capacidad de trabajo a otros sistemas en su estado de materia elaborada.

La capacidad de algunos sistemas de recordar el pasado (de tener memoria), produce en ese sistema la capacidad de establecer un método organizado y coordinado para repetir el logro alcanzado por selección natural, y acelerar el objetivo a conseguir. En ese proceso, se paga un precio: la pérdida de su individualidad, mayor dependencia de nuevos elementos que pueden existir gracias a una economía más holgada, pero ganando en especialización. Bajo este enfoque, el orden es la organización de las partes para hacer algo funcional y preciso, lo cual implica la presencia de un cauce que establece una transacción de cargas con menor coste y por lo tanto con potencial de desarrollo a una psicodinámica emergente, dando la oportunidad al observador de imputar una finalidad intencional y, como puede deducirse, de una acción inteligente.

Contenido

[ocultar]

[editar] Ámbitos de orden

En el ámbito del orden social, el orden se remite a la forma en la cual las comunidades se organizan. Así, existen las sociedades jerárquicas, que se basan en una organización social rígida y piramidal, o en sus antípodas las sociedades anarquistas, cuyo orden es mucho más flexible y requiere, en consecuencia, fuertes valores de conducta, como el respeto por la libertad del otro, la igualdad y la responsabilidad por los actos propios. En las diferentes formas de organización social, los factores determinantes son la cultura y los fenómenos particulares que hacen a la naturaleza de cada una de ellas, y no necesariamente las leyes escritas, las cuales tan sólo reflejan las leyes sociales creadas por la comunidad, o alguna de sus partes.

[editar] Otros puntos de vista

Bajo otro punto de vista, el orden no es únicamente una acción inteligente, sino todo aquello que funciona de una determinada manera. Así, aunque quien observa el orden y en última instancia lo define es un individuo inteligente, el orden se encuentra naturalmente en la disposición de sucesos u otros conceptos observables. Aquello que denominamos tiempo, presenta un orden natural para los sucesos y, guiados al menos por los conocimientos concretos del ser humano hasta el día de hoy, el orden cronológico es unidireccional e invariable.

Los antónimos de orden pueden ser, según el contexto en que sea utilizado, desorganización, desorden y caos.

De la misma forma, existen órdenes de órdenes, que solemos llamar estructuras. Existen multitud de estructuras en los más diversos campos tanto de la naturaleza como de la vida social.

[editar] Significados en diferentes disciplinas

Utilizado en masculino un orden puede referirse a un criterio de ordenamiento. En filosofía, orden (en griego cosmos) es lo que se opone al caos. En biología, orden es una de las categorías de la taxonomía. En ciencias sociales, generalmente se refiere al orden social o al orden público. En matemáticas, los diferentes tipos de orden son tratados por la teoría del orden.

Utilizado en femenino, una orden es un imperativo. En el catolicismo puede referirse a las Órdenes religiosas. Hay gran número de honores y condecoraciones en gran número de países que llevan el nombre de Orden.

[editar] Véase también

MATEMÁTICAS: FÍSICA. CAUSALIDAD. En física, el término causalidad describe la relación entre causas y efectos, y es fundamental en todas las ciencias naturales, especialmente en física. En términos generales, la causalidad puede ser estudiada desde varias perspectivas: la filosófica, la de la computación y la estadística.

Causalidad (física)

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Causalidad.

En física, el término causalidad describe la relación entre causas y efectos, y es fundamental en todas las ciencias naturales, especialmente en física. En términos generales, la causalidad puede ser estudiada desde varias perspectivas: la filosófica, la de la computación y la estadística.

Contenido

[ocultar]

[editar] Introducción

En física clásica se asumía que todos los eventos están causados por otros anteriores y que dicha causalidad es expresable en términos de leyes de la naturaleza. Dicha pretensión llegó a su punto más alto en la afirmación de Pierre-Simon Laplace. Laplace afirmó que si se conoce el estado actual del mundo con total precisión, uno puede predecir cualquier evento en el futuro. Esta perspectiva se conoce como determinismo o más precisamente determinismo causal.

Aunque el determinismo de Laplace parece correcto respecto a las ecuaciones aproximadas de la física clásica, la teoría del caos ha añadido pequeñas complicaciones. Muchos sistemas presentan una fuerte sensibilidad a las condiciones iniciales, lo que significa que condiciones iniciales muy similares en ciertos sistemas pueden conducir a comportamientos a largo plazo muy diferentes. Eso sucede por ejemplo en el tiempo atmosférico. Hacia 1987 era habitual usar superordenadores en la predicción del tiempo, por ejemplo el Cray X-MP del Centro Europeo para el Pronóstico del Tiempo a Medio Plazo, que operaba con una capacidad máxima de 800 megaflops, podía calcular en apenas media hora un pronóstico aceptable del tiempo para el día siguiente en todo el hemisferio. Y aunque cada día se realizaban pronósticos de los siguientes diez días, los resultados del pronóstico a partir del cuarto o quinto día diferían sensiblemente de lo previsto por el ordenador.[1]

Sin embargo, por encima de la impredictibilidad práctica causada por el comportamiento estocástico o caótico de los sistemas clásicos, está el hecho de que la mecánica cuántica presenta junto con una evolución determinista recogida en la ecuación de Schrödinger, una evolución no-determinista recogida en el postulado del colapso de la función de onda.

[editar] Mecánica relativista

De acuerdo con los postulados comunes de la física newtoniana, la causa precede al efecto en el tiempo. Sin embargo, en la física moderna, el concepto más simple de causalidad ha necesitado ser clarificado. Por ejemplo, en la teoría de la relatividad especial, el concepto de causalidad se mantiene, pero el significado de "preceder en el tiempo" sigue siendo absoluto y no depende del observador (aunque no pasa igual con el concepto de simultaneidad de conceptos no relacionados causalmente, que ahora sí pasan a depender del observador). Consecuentemente, el principio relativista de causalidad dice que la causa precede a su efecto para observadores inerciales. Esto implica que, en términos de la teoría de la relatividad especial, una condición necesaria para que A sea causa de B, es que B sea un evento que pertenece al cono de luz de A (en términos de distancias espacio-temporales se dice que A y B están separados por intervalo temporaloide). A pesar de algunas obras de ciencia ficción, en los supuestos bajo los cuales la teoría de la relatividad especial es adecuada para describir el mundo, resulta imposible, no sólo influir en el pasado, sino también en objetos distantes mediante señales que se muevan más rápidas que la velocidad de la luz.

En la teoría general de la relatividad, el concepto de causalidad se generaliza de la manera más directa posible: el efecto debe pertenecer al cono de luz futuro de su causa, aún en espacio-tiempos curvos; aunque pueden aparecer ciertas complicaciones, como cuando uno trata soluciones exactas de las ecuaciones de Einstein, como el Universo de Gödel, donde existen curvas temporales cerradas, y un observador puede verse a sí mismo en el pasado, y otra serie de peculiaridades que, no obstante, no incurren en ninguna paradoja.[2]

[editar] Mecánica cuántica

Nuevas sutilezas se toman en cuenta cuando se investiga la causalidad en mecánica cuántica no relativista y teoría cuántica de campos (mecánica cuántica relativista). En la teoría cuántica de campos, la causalidad está estrechamente relacionada con el principio de localidad. El análisis de ese principio es delicado, y muchas veces ese análisis pasa por el uso del teorema de Bell. De todas maneras, el resultado de dicho análisis parece depender, en parte, de desde qué interpretación de la mecánica cuántica se interpreten los resultados.

Sin embargo, se sospecha que, aún con todas estas sutilezas, el principio de causalidad sigue siendo un concepto válido de toda teoría física realista. Así, parece que la noción de que los eventos pueden ser ordenados en causas y efectos es necesaria para prevenir ciertas paradojas del mundo que conocemos.

La base de la causalidad física son los procesos energéticos que están gobernados por el principio físico de la conservación de la energía.

[editar] Principio de causalidad

El principio de causalidad postula que todo efecto -todo evento- debe tener siempre una causa (que, en idénticas circunstancias, una causa tenga siempre un mismo efecto se conoce como "principio de uniformidad"). Se usa para la búsqueda de leyes definidas, que asignan a cada causa su correspondiente efecto.

Este principio refleja un comportamiento mecánico de la naturaleza, que hasta el siglo XX se había aceptado e interpretado en un sentido determinista. No obstante, a principios de este siglo Heisenberg introdujo su principio de incertidumbre, que modificaba profundamente el principio de causalidad clásico.

Heisenberg y otros padres de la mecánica cuántica introdujeron un modelo de átomo que renunciaba a la visión clásica de un compuesto de partículas y ondas. Se concluyó que estaba condenado al fracaso cualquier intento de establecer analogías entre la estructura atómica y nuestra intuición sobre objetos macroscópicos. La formulación matemática de la teoría de Heisenberg se llamó inicialmente mecánica matricial, porque requería del uso de las matrices del álgebra lineal clásica. Esta formulación resultó complementaria de la mecánica ondulatoria, del físico austriaco Erwin Schrödinger.

Usando esta mecánica, los niveles de energía u órbitas de electrones se describen en términos probabilísticos: en general, de una misma causa no se deriva siempre un mismo efecto, sino que existe una variedad de posibles efectos. Sólo se puede predecir (aunque, en principio, con una fiabilidad determinista total) la probabilidad de que, cuando la causa se produzca, ocurra cada uno de los efectos.

Este comportamiento resulta extraño para nuestra experiencia ordinaria. Su explicación la podemos resumir en los siguientes puntos, que deben aceptarse como postulados avalados por miles de observaciones experimentales:

  • Existen propiedades de la materia (observables) que no se pueden medir simultáneamente (observables que no conmutan). Por ejemplo, la posición y la velocidad de una misma partícula sería un par de propiedades de este tipo. Para ilustrar esa situación con un análogo clásico burdo, piénsese que, si un microscopio es lo suficientemente sensible como para hacer visible un electrón, deberá enviar una cantidad mínima de luz u otra radiación apropiada sobre él, que lo haga visible. Pero el electrón es tan pequeño que este mínimo de radiación (digamos, un fotón) es suficiente para hacerle cambiar de posición apenas lo tocara, de modo que en el preciso instante de medir su posición, alteraríamos ésta.
  • Supongamos que hemos medido una de estas propiedades observables, de modo que conocemos con precisión su valor. Cuando un instante después midamos la segunda propiedad, obtendremos uno de los posibles valores de esta segunda propiedad, pero no podemos predecir antes cuál: sólo se puede predecir la probabilidad con la que cada uno de los valores posibles serán obtenidos.

Para algunos autores, desde el punto de vista filosófico, esto supone renunciar al principio de causalidad: podemos hallar dos sistemas físicos que han sido preparados exactamente del mismo modo, pero tales que, al medir una misma propiedad de ambos, obtenemos un resultado distinto en cada caso. No existe ninguna causa por la que hayamos obtenido los resultados diferentes: la Naturaleza no es determinista. Sin embargo, sí se pueden determinar con precisión las probabilidades de obtener las posibles medidas. Y como los objetos macroscópicos están formados por números gigantescos de partículas, las predicciones probabilísticas cuánticas acaban siendo, estadísticamente hablando, totalmente precisas, lo que hace de la Mecánica Cuántica una teoría extraordinariamente exacta.

La interpretación descrita de la mecánica cuántica es la que se ha impuesto con el tiempo, y se le llama interpretación de Copenhague en honor de la escuela del físico danés Niels Bohr. Inicialmente, la renuncia al principio de causalidad en esta interpretación no fue aceptada por muchos físicos, incluyendo a Einstein, quien afirmó: “Dios no juega a los dados”. De hecho, el propio Einstein, en colaboración con Podolski y Rosen, ideó un experimento (Paradoja EPR, por las siglas de sus autores) tal que las conclusiones de la interpretación de Copenhague parecían absurdas. Bohr mostró que, aunque muy extrañas, estas conclusiones no son absurdas. Experimentos de este tipo fueron llevados a cabo a finales del siglo XX por Alain Aspect, y han confirmado la interpretación de Copenhague.

Sin embargo, esta interpretación se enfrenta todavía a la llamada paradoja del gato de Schrödinger (remarquemos que Schrödinger, como Einstein, fue uno de los padres de la Mecánica Cuántica). Esta paradoja, que afecta a la definición de lo que es un proceso de medida (la distinción entre la materia observada y la mente del observador), no ha podido ser aún explicada de forma satisfactoria.

Existen multitud de efectos que se derivan del principio de incertidumbre. Uno de ellos, que afecta al ejemplo de incertidumbre posición-velocidad anterior, es la imposibilidad de la ausencia completa de energía cinética o, digamos, velocidad, para una partícula (ni siquiera en el cero absoluto). Si la energía cinética alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sería posible confinarlas y determinar su posición con precisión arbitraria, a la vez que conoceríamos su velocidad (que sería cero). Por tanto, debe existir alguna “energía residual del punto cero”, incluso en el cero absoluto, para mantener las partículas en movimiento, y también, por así decirlo, nuestra incertidumbre. Esa energía “punto cero” se puede calcular, y resulta suficiente para evitar que el helio líquido se solidifique, incluso a temperaturas tan próximas como se quiera del cero absoluto (el cero en sí resulta inaccesible).

Las consecuencias del principio de incertidumbre se constatan en todas las partes de la microfísica, y acaban resultando asombrosas cuando se extrapolan al Universo en su conjunto. Así:

  • Desde los tiempos de Einstein, en 1930, se sabía que el principio de incertidumbre también llevaba a la imposibilidad de reducir el error en la medición de energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida. (De hecho, al principio, Einstein creyó poder utilizar esta tesis como trampolín para refutar el principio de incertidumbre, pero también Bohr mostró que la tentativa de Einstein era errónea).
  • De esta versión de la incertidumbre se seguía que en un proceso subatómico se podía violar durante breves lapsos la ley de la conservación de la energía (siempre y cuando todo volviese al estado de conservación cuando concluyese ese lapso). En general, cuanto mayor sea la desviación de la conservación, tanto más breve será el intervalo de tiempo en que ésta es tolerable. El físico japonés Hideki Yukawa aprovechó esta noción para elaborar su teoría de los piones, confirmada experimentalmente.
  • Más aún, posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las partículas nacían de la nada como un reto a la energía de conservación, pero se extinguían antes del tiempo asignado a su detección, por lo cual eran sólo “partículas virtuales”. Hacia fines de la década 1940-1950, tres investigadores (premios Nobel de Física en 1965) elaboraron la teoría sobre esas partículas virtuales: los físicos norteamericanos Julian Schwinger y Richard Phillips Feynman, y el físico japonés Shin'ichirō Tomonaga. Los diagramas de Feynman son usados corrientemente en la física de partículas, donde llevan a predicciones extremadamente exactas.
  • A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó como una pequeña pero muy masiva partícula virtual que se expandió con extrema rapidez y que aún sigue expandiéndose. Según este punto de vista, el Universo se formó de la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número infinito de Universos que se formen (y, llegado el momento, acaben) en esta Nada.

En resumen, el principio de incertidumbre afectó profundamente al pensamiento de físicos y filósofos. Ejerció una influencia directa sobre la cuestión filosófica de causalidad, la relación entre causa y efecto. Pero sus implicaciones para la ciencia no son las que se suponen popularmente a menudo. Se puede leer que el principio de incertidumbre anula toda certeza acerca de la naturaleza, y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Pero tanto si esta interpretación es válida desde el ángulo filosófico como si no, el principio de incertidumbre no ha modificado un ápice la actitud del científico ante la investigación. Y esto por varios motivos:

  • La incertidumbre también existe a un nivel clásico. Por ejemplo, incluso si nos olvidamos de posibles efectos cuánticos, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas. Sin embargo, estas moléculas acatan ciertas leyes termodinámicas, y su conducta es previsible sobre una base estadística. Estas predicciones son infinitamente más precisas que las de las compañías aseguradoras, que planifican su actividad (y obtienen beneficios) calculando con índices de mortalidad fiables, aunque les sea imposible predecir cuándo morirá un individuo determinado.
  • Ciertamente, en muchas observaciones científicas, la incertidumbre es tan insignificante comparada con la escala correspondiente de medidas, que se la puede descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente la posición y el movimiento de una estrella, o un planeta, o una bola de billar, o incluso un grano de arena con exactitud absolutamente satisfactoria.
  • La incertidumbre entre las propias partículas subatómicas no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha empleado para entender el modelo atómico (que resultaba inestable desde el punto de vista no cuántico), esclarecer hechos sobre la radiactividad, sobre la absorción de partículas subatómicas por los núcleos, y otros muchos acontecimientos subatómicos. En ello se emplea una economía lógica y razonabilidad muy superior de lo que hubiera sido esperable sin él.

Es cierto que el principio de incertidumbre o, en general, la física cuántica, se enfrenta a la paradoja no resuelta del problema de la medición (el gato de Schrödinger). Pero ésta tiene sus orígenes en la distinción entre mente y materia, determinismo y libre albedrío, y profundiza en ella como nunca antes habían imaginado los filósofos. El principio de incertidumbre significa que el Universo es más complejo de lo que se suponía, pero no irracional.

[editar] Referencias

  1. O. Stewart, 2001, p.169
  2. «Revisiting the Light Cone of the Goedel Universe». arXiv.

[editar] Bibliografía

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: CAUSA. Dados dos eventos A y B, A es causa de B si se cumplen una serie de condiciones lógicas, dos sucesos importantes.

Causa

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Causa (desambiguación).

Dados dos eventos A y B, A es causa de B si se cumplen una serie de condiciones lógicas, dos sucesos importantes.

  • La ocurrencia de A va acompañada de la ocurrencia de B, o si examinamos, representamos numéricamente el grado en que ocurren A y B, entonces encontramos una correlación positiva entre ambas variables.
  • La no-ocurrencia de B implica que tampoco podrá hallarse la ocurrencia de A, aunque la ocurrencia de B no tiene por qué estar ligada necesariamente a la concurrencia de A.

Cuando dos eventos A y B cumplen las dos condiciones anteriores decimos que existe una relación causal entre ambos: en concreto "A es causa de B" o equivalentemente "B es un efecto de A".

La idea de causa intuitivamente surge del intento de explicarnos lo que ocurre a nuestro alrededor mediante un determinado esquema lógico subyacente que nos permite relacionar unas cosas con otras mediante conexiones necesarias. Esta capacidad para establecer conexiones causales es una habilidad cognitiva básica de primates superiores, algunos mamíferos superiores e incluso algunos invertebrados como el pulpo de mar.

Esta habilidad cognitiva básica es importante precisamente porque existe cierta evidencia empírica de que que siempre que se dan las mismas circunstancias como causas, se producirá siempre el mismo efecto. Eso es lo que entendemos por principio de causalidad que según puede formular de un modo un tanto naïf como "todo lo que sucede en el mundo, en la Naturaleza tiene una causa" (también se suele parafrasear una proposición de Aristóteles: "Todo lo que se mueve, se mueve por otro").

 

Contenido

[ocultar]

[editar] Causa en Ciencias naturales y Ciencias sociales

La idea de causa aparece en ciencias naturales y sociales en varios contextos:

  1. En física donde el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  2. En estadística donde es analizado por la estadística inferencial.
  3. En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas (por tanto en general se trata del mismo concepto manejado en el contexto 2).
  4. En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimos físico simple (caso 1), la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

[editar] Causa en filosofía

Plantilla:Causalidad (filosofía) La idea de "causa" ha suscitado un buen número de debates filosóficos, desde los primeros intentos filosóficos. Aristóteles concluye el libro de los Segundos analiticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica "nada hay en el intelecto que no haya estado antes en los sentidos" (Nihil est in intellectu, quod prius non fuerit in sensu). Al mantener que "conocer la naturaleza de una cosa es conocer, ¿por qué es?" y que "poseemos conocimiento científico de una cosa sólo cuando conocemos su causa".

Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración: la forma definible; un antecedente que necesita un consecuente; la causa eficiente; la causa final.[1]

En la filosofía occidental, el concepto de causa como "conexión necesaria" fue criticado por el filósofo David Hume.

En las relaciones causales encontramos que:

  • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
  • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
  • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.[2]
  • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. De la confusión de ambos se ha seguido tradicionalmente la demostración de la existencia de Dios a partir del principio de causalidad. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
  • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.

[editar] Notas al pie

  1. Vulgarmente causa material, causa formal, causa eficiente y causa final
  2. La palabra efecto, proviene del latín effectus y tiene una gran cantidad de significados, ligados muchos de ellos a la experimentación científica, porque su significado principal indica que efecto es aquello que se consigue por virtud de una causa o el fin para que se hace una cosa. La relación que existe entre causa y efecto se llama causalidad. La causalidad es objeto de profundos análisis en el campo filosófico.

[editar] Véase también

MATEMÁTICAS: RELACIONES DE CAUSALIDAD. En estadística, la causalidad se refiere a una relación de necesidad de coocurrencia de dos variables estadísticas correlacionadas, probar causalidad entre dos variables implica además de que guarden una correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.

Causalidad (estadística)

De Wikipedia, la enciclopedia libre

En estadística, la causalidad se refiere a una relación de necesidad de coocurrencia de dos variables estadísticas correlacionadas, probar causalidad entre dos variables implica además de que guarden una correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.

Contenido

[ocultar]

[editar] Introducción

En epidemiología, el hecho de que dos fenómenos estén estadísticamente relacionados no implica necesariamente que uno sea causa del otro. Para poder afirmar esto último es necesario disponer de dos grupos comparables (constituidos por individuos elegidos al azar), y someter a la exposición al factor estudiado a uno de ellos, estudiando las diferentes tasas de aparición del efecto.

Esto, en la mayoría de los casos es imposible por razones éticas y prácticas, por lo que se recurre a estudios analíticos retrospectivos: Se toman dos grupos, uno con el efecto (por ejemplo, enfermedad) y otro sin él ("sanos"), y se estudia, de manera retrospectiva, cuál fue el grado de exposición a la hipotética causa (factor de riesgo) en cada caso.

No obstante ello los estudios analíticos prospectivos suelen ser los que garantizan - dentro de los límites de confianza estadística fijados - las asociaciones causales más fuertes.

A falta, entonces, de una prueba experimental idónea se han postulado una serie de criterios cuyo cumplimiento garantiza que la asociación no sea "casual", sino "causal". Los más conocidos son los formulados por Sir Austin Bradford Hill:

  • Fuerza de la asociación, estimable mediante las medidas estadísticas correspondientes.
  • Gradiente o efecto dosis-respuesta (a mayor dosis de la causa, mayor cantidad del efecto).
  • Secuencia temporal.
  • Consistencia, o repetición del mismo resultado en otros estudios.
  • Coherencia con otros hallazgos.
  • Analogía con otros fenómenos.
  • Plausibilidad biológica, es decir, existencia de un mecanismo biológico plausible que explique la relación causa-efecto.
  • Especificidad.
  • Evidencia experimental, demostración mediante estudios experimentales.

[editar] Factor condicionante

Un factor condicionante es una variable que parece influir causalmente en otra variable, llamada efecto; aun cuando el factor condicionante no sea la única causa eficiente para el efecto. Formalmente A es un factor condicionante de B si se cumple la sigueinte relación entre las probabilidades condicionadas:

(1) P(B|A) > P(B|bar{A}), qquad mbox{con} P(A) ne 0

Es decir, la probabilidad de que se dé B dado que sabemos que está ocurriendo A, es mayor que la probabilidad de que se dé B dado que sabemos que no ocurre A. Esto generaliza la idea de causa, ya que si "A es causa de B" la relación (1) se cumple trivialmente ya que se tiene:

P(B|A) =1, P(B|bar{A}) =0

La idea del factor condicionante, tiene la ventaja de que en ocasiones es difícil demostrar estadísticamente que "A es causa de B", aunque es relativamente fácil de argumentar la validez estadística de que "A es un factor condicionante de B".

[editar] Formas alternativas

Si además sucede que 1 > P(A) > 0, la relación (1) también puede escribirse como:

(1b) P(B) > P(B|bar{A}),qquad mbox{o} qquad P(B|A) > P(B)

Por ejemplo para demostrar la primera relación, basta considerar las siguientes identidades:

begin{matrix} P(B) = P(B|A)P(A) + P(B|bar{A})P(bar{A}) = P(B|A)P(A) + P(B|bar{A})(1-P(A))  Rightarrow P(B) = P(B|bar{A}) + P(A)[P(B|A) - P(B|bar{A})] ge P(B|bar{A}) +varepsilon end{matrix}

Siendo:

delta:=P(B|A) - P(B|bar{A})> 0varepsilon = P(A)delta > 0

Similarmente, se puede demostrar la otra identidad:

begin{matrix} P(B) = P(B|A)P(A) + P(B|bar{A})P(bar{A}) = P(B|A)(1-P(bar{A})) + P(B|bar{A})P(bar{A})  Rightarrow P(B) = P(B|A) + P(bar{A})[P(B|bar{A}) - P(B|A)] le P(B|A) - bar{varepsilon} end{matrix}

Donde:

bar{varepsilon} = P(bar{A})delta > 0

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: RELACIÓN MATEMÁTICA. Una relación , de los conjuntos es un subconjunto del producto cartesiano. El concepto de relación implica la idea de enumeración, de algunos de los elementos, de los conjuntos que forman tuplas.

Relación matemática

De Wikipedia, la enciclopedia libre

Una relación R_{ }^{ }, de los conjuntos  A_1, A_2, ldots , A_n es un subconjunto del producto cartesiano

Rsubseteq A_1 times A_2 times ldots times A_n

Una Relación binaria es una relación entre dos conjuntos.

El concepto de relación implica la idea de enumeración, de algunos de los elementos, de los conjuntos que forman tuplas.

 R(a_1,a_2, ldots ,a_n) qquad mbox{o bien} qquad (a_1,a_2, ldots ,a_n) in R

Un caso particular es cuando todos los conjuntos de la relación son iguales:  A_1 = A_2 = ldots = A_n en este caso se representa  A times A times ldots times A como  A^n , , pudiéndose decir que la relación pertenece a A a la n.

Rsubseteq A^n

[editar] Tipos de relaciones

En las relaciones se diferencian los tipos según el número de conjuntos en el producto cartesiano, que es el número de términos de la relación:

Relación unaria: un solo conjunto  R  subseteq A , ; R(a)Relación binaria: con dos conjuntos  R  subseteq A_1 times A_2 , ; R(a_1,a_2)Relación ternaria: con tres conjuntos  R  subseteq A_1 times A_2  times A_3 , ; R(a_1,a_2,a_3)Relación cuaternaria: con cuatro conjuntos  R  subseteq A_1 times A_2 times A_3 times A_4 , ; R(a_1,a_2,a_3,a_4)...Relación n-aria: caso general con n conjuntos  R  subseteq A_1 times A_2 ldots times A_n , ; R(a_1,a_2,ldots,a_n)

[editar] Véase también