Blogia
petalofucsia

Matemáticas

MATEMÁTICAS: TEORÍA DE LA PROBABILIDAD. La teoría de la probabilidad es la teoría matemática que modela los fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinísticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo.

Teoría de la probabilidad

De Wikipedia, la enciclopedia libre

La teoría de la probabilidad es la teoría matemática que modela los fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinísticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo.

Los procesos reales que se modelizan como procesos aleatorios pueden no serlo realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido estricto, ya que no se reproducen exactamente las mismas condiciones iniciales que lo determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.

En 1933, el matemático soviético Andrés Colmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.

Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Brownia), o las finanzas (donde destaca el modelo de Blacko y Schol para la valuación de acciones).

Contenido

[ocultar]

[editar] Definición clásica de probabilidad

La probabilidad es la característica de un evento, que existen razones para creer que éste se realizará.

La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y el número total de casos posibles n.

p=P{S}=frac {h}{n}

La probabilidad es un número (valor) que varia entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1.

La probabilidad de no ocurrencia de un evento está dada por q, donde:

q=P{no  S}=1-frac {h}{n}

Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra, entonces p + q = 1

Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por ω12, etcétera, son elementos del espacio Ω.

[editar] Definición según la frecuencia relativa y definición axiomática

La definición axiomática de la probabilidad se define con base a sí misma (igualmente factible es sinónimo de igualmente probable) se define la probabilidad estimada o empírica basada en la frecuencia relativa de aparición de un suceso S cuando Ω es muy grande. La probabilidad de un suceso es una medida que se escribe como

mathbb{P}{S} ,,

y mide con qué frecuencia ocurre algún suceso si se hace algún experimento indefinidamente.

La definición anterior es complicada de representar matemáticamente ya que Ω debiera ser infinito. Otra manera de definir la probabilidad es de forma axiomática esto estableciendo las relaciones o propiedades que existen entre los conceptos y operaciones que la componen.

Véase también: Axiomas de probabilidad

[editar] Probabilidad discreta

Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes que son el resultado de la cuenta de alguna característica de interés.

[editar] Probabilidad continua

Una variable aleatoria es una función medible

X:Omegatomathbb{R} ,

que da un valor numérico a cada suceso en Ω.

[editar] Función de densidad

Artículo principal: Función de densidad

La función de densidad, o densidad de probabilidad de una variable aleatoria, es una función a partir de la cual se obtiene la probabilidad de cada valor que toma la variable. Su integral en el caso de variables aleatorias continuas es la distribución de probabilidad. En el caso de variables aleatorias discretas la distribución de probabilidad se obtiene a través del sumatorio de la función de densidad.

[editar] Véase también

[editar] Bibliografía

MATEMÁTICAS: CAUSALIDAD (ESTADÍSTICA). En estadística, la causalidad se refiere a una relación de necesidad de coocurrencia de dos variables estadísticas correlacionadas, probar causalidad entre dos variables implica además de que guarden una correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.

Causalidad (estadística)

De Wikipedia, la enciclopedia libre

En estadística, la causalidad se refiere a una relación de necesidad de coocurrencia de dos variables estadísticas correlacionadas, probar causalidad entre dos variables implica además de que guarden una correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.

Contenido

[ocultar]

[editar] Introducción

En epidemiología, el hecho de que dos fenómenos estén estadísticamente relacionados no implica necesariamente que uno sea causa del otro. Para poder afirmar esto último es necesario disponer de dos grupos comparables (constituidos por individuos elegidos al azar), y someter a la exposición al factor estudiado a uno de ellos, estudiando las diferentes tasas de aparición del efecto.

Esto, en la mayoría de los casos es imposible por razones éticas y prácticas, por lo que se recurre a estudios analíticos retrospectivos: Se toman dos grupos, uno con el efecto (por ejemplo, enfermedad) y otro sin él ("sanos"), y se estudia, de manera retrospectiva, cuál fue el grado de exposición a la hipotética causa (factor de riesgo) en cada caso.

No obstante ello los estudios analíticos prospectivos suelen ser los que garantizan - dentro de los límites de confianza estadística fijados - las asociaciones causales más fuertes.

A falta, entonces, de una prueba experimental idónea se han postulado una serie de criterios cuyo cumplimiento garantiza que la asociación no sea "casual", sino "causal". Los más conocidos son los formulados por Sir Austin Bradford Hill:

  • Fuerza de la asociación, estimable mediante las medidas estadísticas correspondientes.
  • Gradiente o efecto dosis-respuesta (a mayor dosis de la causa, mayor cantidad del efecto).
  • Secuencia temporal.
  • Consistencia, o repetición del mismo resultado en otros estudios.
  • Coherencia con otros hallazgos.
  • Analogía con otros fenómenos.
  • Plausibilidad biológica, es decir, existencia de un mecanismo biológico plausible que explique la relación causa-efecto.
  • Especificidad.
  • Evidencia experimental, demostración mediante estudios experimentales.

[editar] Factor condicionante

Un factor condicionante es una variable que parece influir causalmente en otra variable, llamada efecto; aun cuando el factor condicionante no sea la única causa eficiente para el efecto. Formalmente A es un factor condicionante de B si se cumple la siguiente relación entre las probabilidades condicionadas:

(1) P(B|A) > P(B|bar{A}), qquad mbox{con} P(A) ne 0

Es decir, la probabilidad de que se dé B dado que sabemos que está ocurriendo A, es mayor que la probabilidad de que se dé B dado que sabemos que no ocurre A. Esto generaliza la idea de causa, ya que si "A es causa de B" la relación (1) se cumple trivialmente ya que se tiene:

P(B|A) =1, P(B|bar{A}) =0

La idea del factor condicionante, tiene la ventaja de que en ocasiones es difícil demostrar estadísticamente que "A es causa de B", aunque es relativamente fácil de argumentar la validez estadística de que "A es un factor condicionante de B".

[editar] Formas alternativas

Si además sucede que 1 > P(A) > 0, la relación (1) también puede escribirse como:

(1b) P(B) > P(B|bar{A}),qquad mbox{o} qquad P(B|A) > P(B)

Por ejemplo para demostrar la primera relación, basta considerar las siguientes identidades:

begin{matrix} P(B) = P(B|A)P(A) + P(B|bar{A})P(bar{A}) = P(B|A)P(A) + P(B|bar{A})(1-P(A))  Rightarrow P(B) = P(B|bar{A}) + P(A)[P(B|A) - P(B|bar{A})] ge P(B|bar{A}) +varepsilon end{matrix}

Siendo:

delta:=P(B|A) - P(B|bar{A})> 0varepsilon = P(A)delta > 0

Similarmente, se puede demostrar la otra identidad:

begin{matrix} P(B) = P(B|A)P(A) + P(B|bar{A})P(bar{A}) = P(B|A)(1-P(bar{A})) + P(B|bar{A})P(bar{A})  Rightarrow P(B) = P(B|A) + P(bar{A})[P(B|bar{A}) - P(B|A)] le P(B|A) - bar{varepsilon} end{matrix}

Donde:

bar{varepsilon} = P(bar{A})delta > 0

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: MODELO MATEMÁTICO. En ciencias aplicadas, un Modelo matemático es uno de los tipos de modelos científicos, que emplea algún tipo de formulismo matemático para expresar relaciones, proposiciones sustantivas de hechos, variables, parámetros, entidades y relaciones entre variables y/o entidades u operaciones, para estudiar comportamientos de sistemas complejos ante situaciones difíciles de observar en la realidad. El término modelización matemática es utilizada también en diseño gráfico cuando se habla de modelos geométricos de los objetos en dos (2D) o tres dimensiones (3D).

Modelo matemático

De Wikipedia, la enciclopedia libre

En ciencias aplicadas, un Modelo matemático es uno de los tipos de modelos científicos, que emplea algún tipo de formulismo matemático para expresar relaciones, proposiciones sustantivas de hechos, variables, parámetros, entidades y relaciones entre variables y/o entidades u operaciones, para estudiar comportamientos de sistemas complejos ante situaciones difíciles de observar en la realidad. El término modelización matemática es utilizada también en diseño gráfico cuando se habla de modelos geométricos de los objetos en dos (2D) o tres dimensiones (3D).

El significado de modelo matemático en matemática fundamental, sin embargo, es algo diferente. En concreto en matemáticas se trabajan con modelos formales. Un modelo formal para una cierta teoría matemática es un conjunto sobre el que se han definido un conjunto de relaciones unarias, binarias y trinarias, que satisface las proposiciones derivadas del conjunto de axiomas de la teoría. La rama de la matemática que se encarga de estudiar sistemáticamente las propiedades de los modelos es la teoría de modelos.

Contenido

[ocultar]

[editar] Clasificaciones de los modelos

Se podría decir que un modelo de las ciencias físicas es una traducción de la realidad física de un sistema en términos matemáticos, es decir, una forma de representar cada uno de los tipos entidades que intervienen en un cierto proceso físico mediante objetos matemáticos. Las relaciones matemáticas formales entre los objetos del modelo, deben representar de alguna manera las relaciones reales existentes entre las diferentes entidades o aspectos del sistema u objeto real. Así una vez "traducido" o "representado" cierto problema en forma de modelo matemático, se pueden aplicar el cálculo, el álgebra y otras herramientas matemáticas para deducir el comportamiento del sistema bajo estudio. Un modelo físico requerirá por tanto que se pueda seguir el camino inverso al modelado, permitiendo reinterpretar en la realidad las predicciones del modelo.

[editar] Según la información de entrada

Con respecto a la función del origen de la información utilizada para construirlos los modelos pueden clasificarse de otras formas. Podemos distinguir entre modelos heurísticos y modelos empíricos:

  • Modelos heurísticos (del griego euriskein 'hallar, inventar'). Son los que están basados en las explicaciones sobre las causas o mecanismos naturales que dan lugar al fenómeno estudiado.
  • Modelos empíricos (del griego empeirikos relativo a la 'experiencia'). Son los que utilizan las observaciones directas o los resultados de experimentos del fenómeno estudiado.

[editar] Según el tipo de representación

Además los modelos matemáticos encuentran distintas denominaciones en sus diversas aplicaciones. Una posible clasificación puede atender a si pretenden hacer predicciones de tipo cualitativo o pretende cuantificar aspectos del sistema que se está modelizando:

  • Modelos cualitativos o conceptuales, estos pueden usar figuras, gráficos o descripciones causales, en general se contentan con predecir si el estado del sistema irá en determinada dirección o si aumentará o disminuirá alguna magnitud, sin importar exactamente la magnitud concreta de la mayoría de aspectos.
  • Modelos cuantitativos o numéricos, usan números para representar aspectos del sistema modelizado, y generalmente incluyen fórmulas y algoritmos matemáticos más o menos complejos que relacionan los valores numéricos. El cálculo con los mismos permite representar el proceso físico o los cambios cuantitativos del sistema modelado.

[editar] Según la aleaotoriedad

Otra clasificación independiente de la anterior, según si a un input o situación inicial concreta pueden corresponder o no diversos output o resultados, en este caso los modelos se clasifican en:

  • Determinista. Se conoce de manera puntual la forma del resultado ya que no hay incertidumbre. Además, los datos utilizados para alimentar el modelo son completamente conocidos y determinados.
  • Estocástico. Probabilístico, que no se conoce el resultado esperado, sino su probabilidad y existe por tanto incertidumbre.

[editar] Clasificación según su aplicación u objetivo

Por su uso suelen utilizarse en las siguientes tres áreas, sin embargo existen muchas otras como la de finanzas, ciencias etc.

  • Modelo de simulación o descriptivo, de situaciones medibles de manera precisa o aleatoria, por ejemplo con aspectos de programación líneal cuando es de manera precisa, y probabilística o heurística cuando es aleatorio. Este tipo de modelos pretende predecir qué sucede en una situación concreta dada.
  • Modelo de optimización. Para determinar el punto exacto para resolver alguna problemática administrativa, de producción, o cualquier otra situación. Cuando la optimización es entera o no lineal, combinada, se refiere a modelos matemáticos poco predecibles, pero que pueden acoplarse a alguna alternativa existente y aproximada en su cuantificación. Este tipo de modelos requiere comparar diversas condicones, casos o posibles valores de un parámetro y ver cual de ellos resulta óptimo según el criterio elegido.
  • Modelo de control. Para saber con precisión como está algo en una organización, investigación, área de operación, etc. Este modelo pretende ayudar a decidir qué nuevas medidas, variables o qué parámetros deben ajustarse para lograr un resultado o estado concreto del sistema modelado.

[editar] Ejemplos

Un modelo mixto operacional estadístico es una teoría o situación causal de hechos y expresado con símbolos de formato matemático. Por ejemplo las tablas de contingencia. De hecho los modelos matemáticos se construyen con varios niveles de significación y con diferentes variables.

Kendall y Buckland catalogan hasta 40 tipos diferentes de modelos matemáticos. Ejemplos: Rapoport en modelo matemático e interacción social en 1961 y Bugeda en Sociología matemática en 1970. Por un principio de isomorfismo hay una equivalencia, a conseguir, entre un modelo y una teoría. Además teoría y modelo son sinónimos.

[editar] Ejemplos de modelos por tipos

 Descriptivos/SimulaciónOptimización/ElecciónControl/Tratamiento
DeterministaProbabilistaDeterministaProbabilistaDeterministaProbabilista
CuantitativoCálculos
astronómicos
Simulaciones
de tráfico
Cálculo componentes
de sistemas
Diseño ingenierilControl
automático
 ?
CualitativoAnálisis
microeconómicos
Teoría de
juegos
 ? ?Teoría
psicológica
 ?

[editar] Modelo matemático de simulación hidrológica

Se utilizan para estudiar situaciones extremas, difícilmente observables en la realidad, como por ejemplo los efectos de precipitaciones muy intensas y prolongadas en cuencas hidrográficas, en su estado natural, o en las que se ha intervenido con obras como canales, represas, diques de contención, puentes, etc.

La cuenca hidrográfica es dividida en sub-cuencas consideradas homogéneas desde el punto de vista: del tipo de suelo, de la declividad, de su cobertura vegetal. El número y tipo de las variables hidrológicas que intervienen en el modelo son función de objetivo específico para el cual se elabora el mismo.

[editar] Fases de construcción de un modelo

En muchos casos la construcción o creación de modelos matemáticos útiles sigue una serie de fases bien determindas:

  1. Identificación de un problema o situación compleja que necesita ser simulada, optimizada o controlada y por tanto requeriría un modelo matemático predictivo.
  2. Elección del tipo de modelo, esto requiere precisar qué tipo de respuesta u output pretende obtenerse, cuales son los datos de entrada o factores relevantes, y para qué pretende usarse el modelo. Esta elección debe ser suficientemente simple como para permitir un tratamiento matemático asequible con los recursos disponibles. Esta fase requiere además identificar el mayor número de datos fidedignos, rotular y clasificar las incógnitas (variables independientes y dependientes) y establecer consideraciones, físicas, químicas, geométricas, etc. que representen adecuadamente el fenómeno en estudio.
  3. Formalización del modelo en la que se detallarán qué forma tienen los datos de entrada, qué tipo de herramienta matemática se usará, como se adaptan a la información previa existente. También podría incluir la confección de algoritmos, ensamblaje de archivos informáticos, etc, etc. En esta fase posiblemente se introduzcan también simplificaciones suficientes para que el problema matemático de modelización sea tratable computacionalmente.
  4. Comparación de resultados los resultados obtenidos como predicciones necesitan ser comparados con los hechos observados para ver si el modelo está prediciendo bien. Si los resultados no se ajustan bien, frecuentemente se vuelve a la fase 1.

Es importante mencionar que la inmensa mayoría de modelos matemáticos no son exactos y tienen un alto grao de idealización y simplificación, ya que una modelización muy exacta puede ser más complicada de tratar de una simplificación conveniente y por tanto menos útil.

[editar] Véase también

[editar] Referencias

[editar] Bibliografía

  • Ríos, Sixto (1995). Modelización. Alianza Universidad. ISBN 978-84-206-2822-6. 
  • Stewart, James (2002): "Cálculo, Trascendentes Tempranas". 4 ed. Tr. de Andrés Sestier. México, Ed. Thomson, p. 1151
  • Guillermo Duran: Investigación de operaciones, modelos matemáticos y optimización, Centro de Gestión de Operaciones, Departamento de Ingeniería Industrial, Universidad de Chile.

[editar] Enlaces externos

MATEMÁTICAS: Mi Gran Cerebro: campeona de ajedrez. Documental de National Geographic sobre la inteligencia humana. Esta sección trata sobre Susan Polgar, campeona y hermana de campeones en la disciplina del ajedrez.

Documental de National Geographic sobre la inteligencia humana. Esta sección trata sobre Susan Polgar, campeona y hermana de campeones en la disciplina del ajedrez.

Obtenido de http://www.youtube.com/watch?v=iWK69yfDwUs&feature=related

MATEMÁTICAS: SUCESIÓN DE FIBONACCI. ¿QUÉ PASA SI A LA SUCESIÓN DE FIBONACCI LE ASIGNAMOS FUNCIONES?. A cada elemento de esta sucesión se le llama número de Fibonacci. Esta sucesión fue descrita en Europa por Leonardo de Pisa, matemático italiano del siglo XIII también conocido como Fibonacci. Tiene numerosas aplicaciones en ciencias de la computación, matemáticas y teoría de juegos. También aparece en configuraciones biológicas, como por ejemplo en las ramas de los árboles, en la disposición de las hojas en el tallo, en la flora de la alcachofa y en el arreglo de un cono.

Sucesión de Fibonacci

De Wikipedia, la enciclopedia libre
Gráfica de la sucesión de Fibonacci hasta f10

En matemáticas, la sucesión de Fibonacci es la siguiente sucesión infinita de números naturales:

0,1,1,2,3,5,8,13,21,34,55,89,144 ldots ,

La sucesión inicia con 0 y 1, y a partir de ahí cada elemento es la suma de los dos anteriores.

A cada elemento de esta sucesión se le llama número de Fibonacci. Esta sucesión fue descrita en Europa por Leonardo de Pisa, matemático italiano del siglo XIII también conocido como Fibonacci. Tiene numerosas aplicaciones en ciencias de la computación, matemáticas y teoría de juegos. También aparece en configuraciones biológicas, como por ejemplo en las ramas de los árboles, en la disposición de las hojas en el tallo, en la flora de la alcachofa y en el arreglo de un cono.

Contenido

[ocultar]

[editar] Historia

La sucesión de Fibonacci en términos de conejos.

Antes de que Fibonacci escribiera su trabajo, la sucesión de los números de Fibonacci había sido descubierta por matemáticos indios tales como Pingala (200 a.c.), Gopala (antes de 1135) y Hemachandra (c. 1150), quienes habían investigado los patrones rítmicos que se formaban con sílabas o notas de uno o dos pulsos. El número de tales ritmos (teniendo juntos una cantidad n de pulsos) era fn + 1, que produce explícitamente los números 1, 2, 3, 5, 8, 13, 21, etc.[1]

La sucesión fue descrita por Fibonacci como la solución a un problema de la cría de conejos: "Cierto hombre tenía una pareja de conejos juntos en un lugar cerrado y uno desea saber cuántos son creados a partir de este par en un año cuando es su naturaleza parir otro par en un simple mes, y en el segundo mes los nacidos parir también".[2]

Dicho de otra forma, sirve para conocer el número de conejos (parejas de conejos) que habrá en 12 meses, si estos se reproducen continuamente y cada pareja de conejos produce una nueva pareja de conejos (un macho y una hembra). Cada conejo se puede cruzar a la edad de un mes, siendo su periodo de gestación un mes. Siendo así, se tiene que:

Número de MesExplicación de la genealogíaParejas de conejos totales
Fin del mes 00 conejos vivos.0 parejas en total.
Comienzo del mes 1Nace una pareja de conejos (pareja A).1 pareja en total.
Fin del mes 1La pareja A tiene un mes de edad. Se cruza la pareja A.1+0=1 pareja en total.
Fin del mes 2La pareja A da a luz a la pareja B. Se vuelve a cruzar la pareja A.1+1=2 parejas en total.
Fin del mes 3La pareja A da a luz a la pareja C. La pareja B cumple 1 mes. Se cruzan las parejas A y B.2+1=3 parejas en total.
Fin del mes 4Las parejas A y B dan a luz a D y E. La pareja C cumple 1 mes. Se cruzan las parejas A, B y C.3+2=5 parejas en total.
Fin del mes 5A, B y C dan a luz a F, G y H. D y E cumplen un mes. Se cruzan A, B, C, D y E.5+3=8 parejas en total.
Fin del mes 6A, B, C, D y E dan a luz a I, J, K, L y M. F, G y H cumplen un mes. Se cruzan A, B, C, D, E, F, G y H.8+5=13 parejas en total.
.........
Fin del mes 12......

Nota: al contar la cantidad de letras distintas en cada mes, se puede saber la cantidad de parejas totales que hay hasta ese mes.

De esta manera Fibonacci presentó la sucesión en su libro Liber Abaci, publicado en 1202. Muchas propiedades de la sucesión de Fibonacci fueron descubiertas por Édouard Lucas, responsable de haberla denominado como se la conoce en la actualidad.[3]

También Kepler describió los números de Fibonacci, y el matemático escocés Robert Simson descubrió en 1753 que la relación entre dos números de Fibonacci sucesivos fn + 1 / fn se acerca a la relación áurea fi (varphi) cuanto más se acerque a infinito; es más: el cociente de dos términos sucesivos de toda sucesión recurrente de orden dos tiende al mismo límite. Esta serie ha tenido popularidad en el siglo XX especialmente en el ámbito musical, en el que compositores con tanto renombre como Béla Bartók, Olivier Messiaen y Delia Derbyshire la han utilizado para la creación de acordes y de nuevas estructuras de frases musicales.

[editar] Definición formal

Chimenea con la secuencia de Fibonacci

Los números de Fibonacci f_0,f_1,f_2,f_3,dots quedan definidos por las ecuaciones

(1) f_0=0,

(2) f_1=1,

(3) f_n = f_{n-1} + f_{n-2}, para n = 2,3,4,5,ldots

Esto produce los números

  • f_0 = 0,
  • f_1 = 1,
  • f_2 = 1,
  • f_3 = 2,
  • f_4 = 3,
  • f_5 = 5,
  • f_6 = 8,
  • f_7 = 13,
  • f_8 = 21,

y así sucesivamente de manera infinita.

[editar] Representaciones alternativas

Para analizar la sucesión de Fibonacci (y, en general, cualquier sucesión) es conveniente obtener otras maneras de representarla matemáticamente.

[editar] Función generadora

Una función generadora para una sucesión cualquiera a_0,a_1,a_2,dots es la función f(x) = a_0+a_1x+a_2x^2+a_3x^3+a_4x^4+cdots, es decir, una serie de potencias donde cada coeficiente es un elemento de la sucesión. Los números de Fibonacci tienen la función generadora

(4) fleft(xright)=frac{x}{1-x-x^2}

Cuando esta función se expande en potencias de x,, los coeficientes resultan ser la sucesión de Fibonacci:

frac{x}{1-x-x^2}=0x^0+1x^1+1x^2+2x^3+3x^4+5x^5+8x^6+13x^7+cdots

[editar] Fórmula explícita

La definición de la sucesión de Fibonacci es recurrente; es decir que se necesitan calcular varios términos anteriores para poder calcular un término específico. Se puede obtener una fórmula explícita de la sucesión de Fibonacci (que no requiere calcular términos anteriores) notando que las ecuaciones (1), (2) y (3) definen la relación de recurrencia

f_{n+2}-f_{n+1}-f_n=0,

con las condiciones iniciales

f_0=0, y f_1=1,

El polinomio característico de esta relación de recurrencia es t2t − 1 = 0, y sus raíces son

t=frac{1pmsqrt 5}{2}

De esta manera, la fórmula explícita de la sucesión de Fibonacci tendrá la forma

f_n=bleft(frac{1+sqrt5}2right)^n+dleft(frac{1-sqrt5}2right)^n

Si se toman en cuenta las condiciones iniciales, entonces las constantes b y d satisfacen la ecuación anterior cuando n = 0 y n = 1, es decir que satisfacen el sistema de ecuaciones

left.begin{array}{rcl}b+d & = & 0  bleft(frac{1+sqrt5}2right)+dleft(frac{1-sqrt5}2right)&=&1end{array}right}

Al resolver este sistema de ecuaciones se obtiene

b=frac1{sqrt5},d=-frac1{sqrt5}

Por lo tanto, cada número de la sucesión de Fibonacci puede ser expresado como

(5) f_n=frac1{sqrt5}left(frac{1+sqrt5}2right)^n-frac1{sqrt5}left(frac{1-sqrt5}2right)^n

Para simplificar aún más es necesario considerar el número áureo

varphi=frac{1+sqrt5}2

de manera que la ecuación (5) se reduce a

(6) f_n=frac{varphi^n-left(1-varphiright)^{n}}{sqrt5}

Esta fórmula se le atribuye a Édouard Lucas, y es fácilmente demostrable por inducción matemática. A pesar de que la sucesión de Fibonacci consta únicamente de números naturales, su fórmula explícita incluye al número irracional varphi,. De hecho, la relación con este número es estrecha.

[editar] Forma matricial

Otra manera de obtener la sucesión de Fibonacci es considerando el sistema lineal de ecuaciones

left . begin{array}{rcl}           f_{n} &=& f_{n}  f_{n-1} + f_{n} &=& f_{n+1} end{array} right }

Este sistema se puede representar mediante su notación matricial como

begin{bmatrix}0&11&1end{bmatrix}begin{bmatrix}f_{n-1}f_{n}end{bmatrix} = begin{bmatrix}f_{n}f_{n+1}end{bmatrix}

Conociendo a f0 = 0 y f1 = 1, al aplicar la fórmula anterior n veces se obtiene

(7) begin{bmatrix}0&11&1end{bmatrix}^nbegin{bmatrix}01end{bmatrix} = begin{bmatrix}f_{n}f_{n+1}end{bmatrix}

Una vez aquí, simplemente tenemos que diagonalizar la matriz, facilitando así la operación de potenciación, y obteniendo por tanto la fórmula explícita para la sucesión que se especificó arriba.

y más aún

(8) begin{bmatrix}0&11&1end{bmatrix}^n=begin{bmatrix}f_{n-1}&f_nf_n&f_{n+1}end{bmatrix}

Estas igualdades pueden probarse mediante inducción matemática.

[editar] Propiedades de la sucesión

Al construir bloques cuya longitud de lado sean números de Fibonacci se obtiene un dibujo que asemeja al rectángulo áureo (véase Número áureo).

Los números de Fibonacci aparecen en numerosas aplicaciones de diferentes áreas. Por ejemplo, en modelos de la crianza de conejos o de plantas, al contar el número de cadenas de bits de longitud n que no tienen ceros consecutivos y en una vasta cantidad de contextos diferentes. De hecho, existe una publicación especializada llamada Fibonacci Quarterly[4] dedicada al estudio de la sucesión de Fibonacci y temas afines. Se trata de un tributo a cuán ampliamente los números de Fibonacci aparecen en matemáticas y sus aplicaciones en otras áreas. Algunas de las propiedades de esta sucesión son las siguientes:

  • La razón o cociente entre un término y el inmediatamente anterior varía continuamente, pero se estabiliza en el número áureo. Es decir:

lim_{ntoinfty}frac{f_{n+1}}{f_n}=varphi

Este límite no es privativo de la Sucesión de Fibonacci. Cualquier sucesión recurrente de orden 2, como la sucesión 3, 4, 7, 11, 18,..., lleva al mismo límite. Esto fue demostrado por Barr y Schooling en una carta publicada en la revista londinense "The Field" del 14 de diciembre de 1912. Los cocientes son oscilantes; es decir, que un cociente es menor al límite y el siguiente es mayor. Los cocientes pueden ordenarse en dos sucesiones que se aproximan asintóticamente por exceso y por defecto al valor límite.
  • Cualquier número natural se puede escribir mediante la suma de un número limitado de términos de la sucesión de Fibonacci, cada uno de ellos distinto a los demás. Por ejemplo, 17 = 13 + 3 + 1, 65 = 55 + 8 + 2.
  • Tan sólo un término de cada tres es par, uno de cada cuatro es múltiplo de 3, uno de cada cinco es múltiplo de 5, etc. Esto se puede generalizar, de forma que la sucesión de Fibonacci es periódica en las congruencias módulo m, para cualquier m.
  • La sucesión puede expresarse mediante otra fórmula explícita llamada forma de Binet (de Jacques Binet). Si textstylealpha = frac{1+sqrt 5}{2} y textstylebeta = frac{1-sqrt 5}{2}, entonces
f_n=frac{alpha^n-beta^n}{alpha-beta} y f_napproxfrac{alpha^n}{sqrt 5},
  • Cada número de Fibonacci es el promedio del término que se encuentra dos posiciones antes y el término que se encuentra una posición después. Es decir
f_n=frac{f_{n-2}+f_{n+1}}2
  • Lo anterior también puede expresarse así: calcular el siguiente número a uno dado es 2 veces éste número menos el número 2 posiciones más atrás:fn + 1 = fn * 2 − fn − 2
  • La suma de los n primeros números es igual al número que ocupa la posición n + 2 menos uno. Es decir
f_0+f_1+f_2+cdots+f_n=f_{n+2}-1
  • Otras identidades interesantes incluyen las siguientes:
f_0-f_1+f_2-cdots+(-1)^nf_n=(-1)^nf_{n-1}-1

 

f_1+f_3+f_5+cdots+f_{2n-1}=f_{2n}

 

f_0+f_2+f_4+cdots+f_{2n}=f_{2n+1}-1

 

f_0^2+f_1^2+f_2^2+cdots+f_n^2=f_nf_{n+1}

 

f_1f_2+f_2f_3+f_3f_4+cdots+f_{2n-1}f_{2n}=f_{2n}^2

 

f_1f_2+f_2f_3+f_3f_4+cdots+f_{2n}f_{2n+1}=f_{2n+1}^2-1

 

Si kgeq1, entonces f_{n+k}=f_kf_{n+1}+f_{k-1}f_n, para cualquier ngeq0

 

f_{n+1}f_{n-1}-f_n^2=(-1)^n (Identidad de Cassini)

 

f_{n+1}^2+f_n^2=f_{2n+1}

 

f_{n+2}^2-f_{n+1}^2=f_nf_{n+3}
Phi forma parte de una expresión de la sucesión de Fibonacci.

 

f_{n+2}^2-f_n^2=f_{2n+2}

 

f_{n+2}^3+f_{n+1}^3-f_n^3=f_{3n+3}

 

f_{n}=varphi ^{n+1}-(f_{n+1})varphi (con φ = número áureo)

 

mathrm{mcd}left(f_n,f_mright)=f_{mathrm{mcd}left(n,mright)}Esto significa que f_n, y f_{n+1}, son primos relativos y que f_k, divide exactamente a f_{nk},
  • Los números de Fibonacci aparecen al sumar las diagonales del triángulo de Pascal. Es decir que para cualquier ngeq0,
f_{n+1}=sum_{j=0}^{leftlfloorfrac n 2rightrfloor}begin{pmatrix}n-jjend{pmatrix}y más aúnf_{3n}=sum_{j=0}^nbegin{pmatrix}njend{pmatrix}2^jf_j
  • Si fp = a, tal que a es un número primo, entonces p también es un número primo, con una única excepción, f4 = 3; 3 es un número primo, pero 4 no lo es.
  • La suma infinita de los términos de la sucesión textstylefrac{f_n}{10^n} es exactamente textstylefrac{10}{89}.
  • La suma de diez números Fibonacci consecutivos es siempre 11 veces superior al séptimo número de la serie.
  • El último dígito de cada número se repite periódicamente cada 60 números. Los dos últimos, cada 300; a partir de ahí, se repiten cada 15times10^{n-1} números.

[editar] Generalización

Gráfica de la sucesión de Fibonacci extendida al campo de los números reales.

El concepto fundamental de la sucesión de Fibonacci es que cada elemento es la suma de los dos anteriores. En este sentido la sucesión puede expandirse al conjunto de los números enteros como ldots,-8,5,-3,2,-1,1,0,1,1,2,3,5,8,ldots de manera que la suma de cualesquiera dos números consecutivos es el inmediato siguiente. Para poder definir los índices negativos de la sucesión, se despeja f_{n-2}, de la ecuación (3) de donde se obtiene

f_{n-2}=f_n-f_{n-1},

De esta manera, f_{-n}=f_n, si n es impar y f_{-n}=-f_n, si n es par.

La sucesión se puede expandir al campo de los números reales tomando la parte real de la fórmula explícita (ecuación (6)) cuando n es cualquier número real. La función resultante

f(x)=frac{varphi^x-cos(pi x)varphi^{-x}}{sqrt 5}

tiene las mismas características que la sucesión de Fibonacci:

  • f(0)=0~
  • f(1)=1~
  • f(x)=f(x-1)+f(x-2)~ para cualquier número real x

Una sucesión de Fibonacci generalizada es una sucesión g_0,g_1,g_2,ldots donde

(9) g_n=g_{n-1}+g_{n-2}, para n=2,3,4,5,ldots

Es decir, cada elemento de una sucesión de Fibonacci generalizada es la suma de los dos anteriores, pero no necesariamente comienza en 0 y 1.

Una característica notable es que, si g_0,g_1,g_2,ldots es una sucesión de Fibonacci generalizada, entonces

g_n=f_{n-1}g_0+f_ng_1~

Por ejemplo, la ecuación (7) puede generalizarse a

begin{bmatrix}0&11&1end{bmatrix}^nbegin{bmatrix}g_0g_1end{bmatrix} = begin{bmatrix}g_{n}g_{n+1}end{bmatrix}

Esto significa que cualquier cálculo sobre una sucesión de Fibonacci generalizada se puede efectuar usando números de Fibonacci.

[editar] Sucesión de Lucas

Gráfica de la sucesión de Lucas extendida al campo de los números reales.

Un ejemplo de sucesión de Fibonacci generalizada es la sucesión de Lucas, descrita por las ecuaciones

  • l_0=2~
  • l_1=1~
  • l_n=l_{n-1}+l_{n-2}~ para n=2,3,4,5,ldots

La sucesión de Lucas tiene una gran similitud con la sucesión de Fibonacci y comparte muchas de sus características. Algunas propiedades interesantes incluyen:

  • La proporción entre un número de Lucas y su sucesor inmediato se aproxima al número áureo. Es decir
lim_{ntoinfty}frac{l_{n+1}}{l_n}=varphi
  • La fórmula explícita para la sucesión de Lucas es
l_n=varphi^n+(-varphi)^{-n}
  • La suma de los primeros n números de Lucas es el número que se encuentra en la posición n + 2 menos uno. Es decir
l_0+l_1+l_2+cdots+l_n=l_{n+2}-1
  • Cualquier fórmula que contenga un número de Lucas puede expresarse en términos de números de Fibonacci mediante la igualdad
l_n=f_{n-1}+f_{n+1}~
  • Cualquier fórmula que contenga un número de Fibonacci puede expresarse en términos de números de Lucas mediante la igualdad
f_n=frac{l_{n-1}+l_{n+1}}{5}

[editar] Algoritmos de cálculo

Calculando f7 usando el algoritmo 1.

Para calcular el n-ésimo elemento de la sucesión de Fibonacci existen varios algoritmos (métodos). La definición misma puede emplearse como uno, aquí expresado en pseudocódigo:

Algoritmo 1 Versión recursiva (Complejidad O(varphi^n),)

función {it fib}(n),

si n<2, entonces devuelve n,si no devuelve {it fib}(n-1) + {it fib}(n-2),

Usando técnicas de análisis de algoritmos es posible demostrar que, a pesar de su simplicidad, el algoritmo 1 requiere efectuar fn + 1 − 1 sumas para poder encontrar el resultado. Dado que la sucesión fn crece tan rápido como varphi^n, entonces el algoritmo está en el orden de varphi^n. Es decir, que este algoritmo es muy lento. Por ejemplo, para calcular f50 este algoritmo requiere efectuar 20365011073 sumas.

Para evitar hacer tantas cuentas, es común recurrir a una calculadora y utilizar la ecuación (6), sin embargo, dado que varphi es un número irracional, la única manera de utilizar esta fórmula es utilizando una aproximación de varphi y obteniendo en consecuencia un resultado aproximado pero incorrecto. Por ejemplo, si se usa una calculadora de 10 dígitos, entonces la fórmula anterior arroja como resultado f_{50}=1.258626903times10^{10} aun cuando el resultado correcto es f50 = 12586269025. Este error se hace cada vez más grande conforme crece n.

Un método más práctico evitaría calcular las mismas sumas más de una vez. Considerando un par (i,j), de números consecutivos de la sucesión de Fibonacci, el siguiente par de la sucesión es (j,i+j),, de esta manera se divisa un algoritmo donde sólo se requiere considerar dos números consecutivos de la sucesión de Fibonacci en cada paso. Este método es el que usaríamos normalmente para hacer el cálculo a lápiz y papel. El algoritmo se expresa en pseudocódigo como:

Algoritmo 2 Versión iterativa (Complejidad O(n),)

función {it fib}(n),

igets 1jgets 0para k, desde 1, hasta n, hacer tgets i+jigets jjgets tdevuelve j,

Esta versión requiere efectuar sólo n sumas para calcular fn, lo cual significa que este método es considerablemente más rápido que el algoritmo 1. Por ejemplo, el algoritmo 2 sólo se requiere efectuar 50 sumas para calcular f50.

Calculando f100 usando el algoritmo 3.

Un algoritmo todavía más rápido se sigue partiendo de la ecuación (8). Utilizando leyes de exponentes es posible calcular xn como

x^n=begin{cases} x & mbox{si }n=1  left(x^{frac n 2}right)^2 & mbox{si }nmbox{ es par}  xtimes x^{n-1} & mbox{si }nmbox{ es impar} end{cases}

De esta manera se divisa el algoritmo de tipo Divide y Vencerás donde sólo se requeriría hacer, aproximadamente, log2(n) multiplicaciones matriciales. Sin embargo, no es necesario almacenar los cuatro valores de cada matriz dado que cada una tiene la forma

begin{bmatrix} a & b  b & a+b end{bmatrix}

De esta manera, cada matriz queda completamente representada por los valores a y b, y su cuadrado se puede calcular como

begin{bmatrix} a & b  b & a+b end{bmatrix}^2 =  begin{bmatrix}a^2+b^2 & b(2a+b) b(2a+b) & (a+b)^2+b^2end{bmatrix}

Por lo tanto el algoritmo queda como sigue:

Algoritmo 3 Versión Divide y Vencerás (Complejidad O(log(n)),)

función {it fib}(n),

si nleq0 entonces devuelve 0,igets n-1(a,b) gets (1,0)(c,d) gets (0,1)mientras i > 0, hacer si i, es impar entonces (a,b) gets (db + ca, d(b + a) + cb)(c,d) gets (c^2 + d^2, d(2c + d))igets idiv 2devuelve a+b,

A pesar de lo engorroso que parezca, este algoritmo permite reducir enormemente el número de operaciones que se necesitan para calcular números de Fibonacci muy grandes. Por ejemplo, para calcular f100, en vez de hacer las 573147844013817084100 sumas del algoritmo 1 o las 100 sumas con el algoritmo 2, el cálculo se reduce a tan sólo 9 multiplicaciones matriciales.

[editar] La sucesión de Fibonacci en la cultura popular

Sucesión de Fibonacci in art, Martina Schettina 2008, 40 x 40 cm
  • En la pág. 61 de la novela de Dan Brown El código Da Vinci aparece una versión desordenada de los primeros ocho números de Fibonacci (13, 3, 2, 21, 1, 1, 8, 5), que funcionan como una pista dejada por el conservador del museo del Louvre, Jacques Saunière.
  • En el álbum Lateralus de la banda estadounidense Tool, los patrones de la batería (Danny Carey) de la canción "Lateralus" siguen la Sucesión de Fibonacci del número 13 (número de pistas del disco): 1,1,2,3,5,8,13,1,1,2,3,5,8,13,1,1,...
  • En la miniserie Taken, la Sucesión de Fibonacci, como la Ecuación de Dios, es descubierta en los planes de los extraterrestres, en ejemplos como que sus naves tienen 5 tripulantes, sus manos 3 dedos y un pulgar, 1597 avistamientos ovnis en año anterior, se siguieron a 55 parejas para descubrir la hibrida humano-extraterrestre Allie, y que finalmente el número de abducidos era de 46368. Incidentalmente se habla en de un hombre que fue abducido 13 veces. 1, 3, 5, 13, 55, 1597, 46368, todos números Fibonacci.
  • En el filme de Darren Aronofsky π el orden del caos el judío Rabbi Cohen presenta la teoría en hebreo transcrito en números en la cual el personaje Max Cohen relaciona esta última teoría con la secuencia de Fibonacci llegando en conclusión que todo esta basado en la ley del orden y el caos.
  • En un lateral de la cúpula de la antigua sinagoga ahora convertida en el Museo Nazionale del Cinema, más conocida como Mole Antonelliana, en Torino (Italia), se puede observar una instalación luminosa de la sucesión de números de Fibonacci.
  • El Dr. Walter Bishop de la serie de televisón Fringe usa numeros de la serie de Fibonacci para las contraseñas de sus cajas de seguridad.
  • En el videojuego de Assasins Creed 2, en uno de los acertijos de los glifos para resolverlo se debe usar la suceción de Fibonaccci para poder resolverlo

[editar] La sucesión de Fibonacci en la naturaleza

La gran mayoría de los árboles parecen crecer siguiendo la sucesión de fibonacci: El tronco (1) se divide en una rama grande (1), esta rama se divide en dos (2), luego, cada una de ellas se divide en 3 (3) ramas más pequeñas, y así sucesivamente.

El Sistema Solar pareciera seguir este patrón: Mercurio (1), Venus (1), La Tierra (2, incluyendo La Luna), Marte (3, incluyendo Fobos y Deimos). Hasta aquí la semejanza, pues el planeta que sigue en el Sistema Solar (Júpiter) tiene más de 60 satélites conocidos. Sin embargo, sólo 4 de ellos son observables fácilmente (Io, Europa, Ganímedes y Calisto), dado que los otros son marcadamente más pequeños. Así, podemos extender hasta el número 5 la presencia de la serie de Fibonacci en nuestro Sistema Solar.

En el cuerpo humano podemos decir que la cabeza es 1, el cuello, 1, los brazos (2), brazo, antebrazo y mano (3), luego los cinco dedos (5), es decir, la sucesión de Fibonacci hasta el 5.

Los machos de una colmena de abejas tienen un árbol genealógico que cumple con esta sucesión. El hecho es que los zánganos, el macho de la abeja, no tiene padre (1), pero sí que tiene una madre (1, 1), dos abuelos, que son los padres de la reina (1, 1, 2), tres bisabuelos, ya que el padre de la reina no tiene padre (1, 1, 2, 3), cinco tatarabuelos (1, 1, 2, 3, 5), ocho tataratatarabuelos (1, 1, 2, 3, 5, 8) y así sucesivamente, cumpliendo con la sucesión de Fibonacci.

[editar] Referencias

  1. Knuth, 1997, pág. 80
  2. Laurence Sigler, Fibonacci's Liber Abaci, página 404
  3. Handbook of discrete and combinatorial mathematics, sección 3.1.2
  4. Fibonacci Quarterly

[editar] Bibiliografía

  • Kolman, Bernard; Hill, David R. (2006). Álgebra Lineal. México: PEARSON EDUCACIÓN. ISBN 970-26-0696-9. 
  • Johnsonbaugh, Richard (2005). Matemáticas Discretas. México: PEARSON EDUCACIÓN. ISBN 970-26-0637-3. 
  • Brassard, G; Bratley, P. (1997). Fundamentos de Algoritmia. Madrid: PRETINCE HALL. ISBN 84-89660-00-X. 
  • Kenneth, H. Rosen (2003). Discrete mathematics and its applications. McGraw Hill. ISBN 0-07-123374-1. 
  • Kenneth H. Rosen; John G. Michaels (1999). Handbook of discrete and combinatorial mathematics. CRC. ISBN 0-8493-0149-1. 
  • N. N. Vorobiov (1974). Números de Fibonacci. Editorial Mir, Moscú, Colección Lecciones Populares de Matemáticas. Traducción al español de Carlos Vega, catedrático de Matemáticas Superiores y candidato a doctor en ciencias físico-matemáticas. 
  • A. I. Markushevich (1974; 1981). Sucesiones recurrentes. Editorial Mir, Moscú, Colección Lecciones Populares de Matemáticas. Traducción al español de Carlos Vega. 
  • Luca Pacioli (1946). La Divina Proporción. Editorial Losada, Buenos Aires. 

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: PARESE A OBSERVAR TODOS LOS COMPORTAMIENTOS QUE SON NORMALES Y LINGÜÍSTICAMENTE TODO LO QUE SE CONSIDERA NORMAL, USANDO DICCIONARIOS U OTROS MÉTODOS. ¿ES UNA RELACIÓN DE CAUSALIDAD TAMBIÉN? ¿QUÉ OPINA? ¿DE CAUSA Y EFECTO? En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.

Distribución normal

De Wikipedia, la enciclopedia libre
Distribución normal
Función de densidad de probabilidad
Probability density function for the normal distribution
La línea verde corresponde a la distribución normal estandar
Función de distribución de probabilidad
Cumulative distribution function for the normal distribution
Parámetrosmu inmathbb{R} ,!
σ > 0
Dominiox inmathbb{R} ,!
Función de densidad (pdf)frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2}  ,!
Función de distribución (cdf)intlimits_{-infty}^{x} frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{t-mu}{sigma}right)^2}    , dt ,!
Mediamu ,!
Medianamu ,!
Modamu ,!
Varianzasigma^2 ,!
Coeficiente de simetría0
Curtosis0
Entropíalnleft(sigmasqrt{2,pi,e}right)  ,!
Función generadora de momentos (mgf)M_X(t)= e^{mu,t+frac{sigma^2 t^2}{2}} ,!
Función característicachi_X(t)=e^{mu,i,t-frac{sigma^2 t^2}{2}} ,!

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea coocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, incluso si la distribución de la población de la cual se extrae la muestra no es normal.[1] Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

Contenido

[ocultar]

[editar] Historia

Abraham de Moivre, descubridor de la distribución normal

La distribución normal fue presentada por vez primera por Abraham de Moivre en un artículo del año 1733,[2] que fue reimpreso en la segunda edición de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.

Laplace usó la distribución normal en el análisis de errores de experimentos. El importante método de mínimos cuadrados fue introducido por Legendre en 1805. Gauss, que afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos[3] y algunos autores le atribuyen un descubrimiento independiente del de De Moivre.[4] Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler.

El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie campana) por primera vez en 1872 para una distribución normal bivariante de componentes independientes. El nombre de "distribución normal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta terminología, otras distribuciones de probabilidad podrían ser más apropiadas en determinados contextos; véase la discusión sobre ocurrencia, más abajo.

[editar] Definición formal

Hay varios modos de definir formalmente una distribución de probabilidad. La forma más visual es mediante su función de densidad. De forma equivalente, también pueden darse para su definición la función de distribución, los momentos, la función característica y la función generatriz de momentos, entre otros.

[editar] Función de densidad

Gráfica de la distribución normal de media 0 y desviación típica 1

Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X~N(μ, σ) si su función de densidad está dada por:

f(x)=frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2} , , quad xinmathbb{R},

donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza).[5]

Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la siguiente expresión:

f(x)=f_{0,1}(x)=frac{e^frac{-x^2}{2}}{sqrt{2pi,}}, ,quad xinmathbb{R},

Su gráfica se muestra a la derecha y con frecuencia se usan tablas para el cálculo de los valores de su distribución.

[editar] Función de distribución

Función de distribución para la distribución normal

La función de distribución de la distribución normal está definida como sigue:

 begin{align} Phi_{mu,sigma^2}(x) &{}=int_{-infty}^xvarphi_{mu,sigma^2}(u),du &{}=frac{1}{sigmasqrt{2pi}} int_{-infty}^x e^{-frac{(u - mu)^2}{2sigma^2}}, du ,quad xinmathbb{R} end{align}

Por tanto, la función de distribución de la normal estándar es:

 Phi(x) = Phi_{0,1}(x) = frac{1}{sqrt{2pi}} int_{-infty}^x e^{-frac{u^2}{2}} , du, quad xinmathbb{R}.

Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma:

 Phi(x) =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x}{sqrt{2}} Bigr) Bigr], quad xinmathbb{R},

y la propia función de distribución puede, por consiguiente, expresarse así:

 Phi_{mu,sigma^2}(x) =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x-mu}{sigmasqrt{2}} Bigr) Bigr], quad xinmathbb{R}.

El complemento de la función de distribución de la normal estándar, 1 − Φ(x), se denota con frecuencia Q(x), y es referida, a veces, como simplemente función Q, especialmente en textos de ingeniería.[6] [7] Esto representa la cola de probabilidad de la distribución gaussiana. También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas ellas transformaciones simples de Φ.[8]

La inversa de la función de distribución de la normal estándar (función cuantil) puede expresarse en términos de la inversa de la función de error:

 Phi^{-1}(p) = sqrt2 ;operatorname{erf}^{-1} (2p - 1), quad pin(0,1),

y la inversa de la función de distribución puede, por consiguiente, expresarse como:

 Phi_{mu,sigma^2}^{-1}(p) = mu + sigmaPhi^{-1}(p) = mu + sigmasqrt2 ; operatorname{erf}^{-1}(2p - 1), quad pin(0,1).

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal (véase función cuantil).

Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

[editar] Límite inferior y superior estrictos para la función de distribución

Para grandes valores de x la función de distribución de la normal estándar scriptstylePhi(x) es muy próxima a 1 y scriptstylePhi(-x),{=},1,{-},Phi(x) está muy cerca de 0. Los límites elementales

 frac{x}{1+x^2}varphi(x)<1-Phi(x)<frac{varphi(x)}{x}, qquad x>0,

en terminos de la densidad scriptstylevarphi son útiles.

Usando el cambio de variable v = u²/2, el límite superior se obtiene como sigue:

 begin{align} 1-Phi(x) &=int_x^inftyvarphi(u),du &<int_x^inftyfrac uxvarphi(u),du =int_{x^2/2}^inftyfrac{e^{-v}}{xsqrt{2pi}},dv =-biggl.frac{e^{-v}}{xsqrt{2pi}}biggr|_{x^2/2}^infty =frac{varphi(x)}{x}. end{align}

De forma similar, usando scriptstylevarphi'(u),{=},-u,varphi(u) y la regla del cociente,

 begin{align} Bigl(1+frac1{x^2}Bigr)(1-Phi(x))&=Bigl(1+frac1{x^2}Bigr)int_x^inftyvarphi(u),du &=int_x^infty Bigl(1+frac1{x^2}Bigr)varphi(u),du &>int_x^infty Bigl(1+frac1{u^2}Bigr)varphi(u),du =-biggl.frac{varphi(u)}ubiggr|_x^infty =frac{varphi(x)}x. end{align}

Resolviendo para scriptstyle 1,{-},Phi(x), proporciona el límite inferior.

[editar] Funciones generadoras

[editar] Función generadora de momentos

La función generadora de momentos se define como la esperanza de e(tX). Para una distribución normal, la función generadora de momentos es:

 M_X(t) = mathrm{E} left[ e^{tX} right] = int_{-infty}^{infty}  frac{1}{sigma sqrt{2pi} } e^{-frac{(x - mu)^2}{2 sigma^2}} e^{tx} , dx = e^{mu t + frac{sigma^2 t^2}{2}}

como puede comprobarse completando el cuadrado en el exponente.

 

[editar] Función característica

La función característica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la función característica se obtiene reemplazando t por it en la función generadora de momentos.

Para una distribución normal, la función característica es[9]

  begin{align} chi_X(t;mu,sigma) &{} = M_X(i t) = mathrm{E} left[ e^{i t X} right]  &{}= int_{-infty}^{infty} frac{1}{sigma sqrt{2pi}} e^{- frac{(x - mu)^2}{2sigma^2}} e^{i t x} , dx  &{}= e^{i mu t - frac{sigma^2 t^2}{2}} end{align}

[editar] Propiedades

Algunas propiedades de la distribución normal son:

  1. Es simétrica respecto de su media, μ;
    Distribución de probabilidad alrededor de la media en una distribución N(μ, σ).
  2. La moda y la mediana son ambas iguales a la media, μ;
  3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
  4. Distribución de probabilidad en un entorno de la media:
    1. en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;
    2. en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;
    3. por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.
  5. Si X ~ N(μ, σ2) y a y b son números reales, entonces (aX + b) ~ N(+b, a2σ2).
  6. Si X ~ N(μx, σx2) e Y ~ N(μy, σy2) son variables aleatorias normales independientes, entonces:
    • Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy, σx2 + σy2) (demostración). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer).
    • Su diferencia está normalmente distribuida con V = X - Y sim N(mu_X - mu_Y, sigma^2_X + sigma^2_Y).
    • Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí.
    • La divergencia de Kullback-Leibler, D {rm KL}( X | Y ) = { 1 over 2 } left( log left( { sigma^2_Y over sigma^2_X } right) + frac{sigma^2_X}{sigma^2_Y} + frac{left(mu_Y - mu_Xright)^2}{sigma^2_Y} - 1right).
  7. Si X sim N(0, sigma^2_X) e Y sim N(0, sigma^2_Y) son variables aleatorias independientes normalmente distribuidas, entonces:
  8. Si X_1, dots, X_n son variables normales estándar independientes, entonces X_1^2 + cdots + X_n^2 sigue una distribución χ² con n grados de libertad.
  9. Si X_1,dots,X_n son variables normales estándar independientes, entonces la media muestral bar{X}=(X_1+cdots+X_n)/n y la varianza muestral S^2=((X_1-bar{X})^2+cdots+(X_n-bar{X})^2)/(n-1) son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad).

[editar] Estandarización de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la distribución normal estándar.

Si X ~ N(μ,σ2), entonces

Z = frac{X - mu}{sigma} !

es una variable aleatoria normal estándar: Z ~ N(0,1).

La transformación de una distribución X ~ N(μ, σ) en una N(0, 1) se llama normalización, estandarización o tipificación de la variable X.

Una consecuencia importante de esto es que la función de distribución de una distribución normal es, por consiguiente,

Pr(X le x) = Phi left( frac{x-mu}{sigma} right) = frac{1}{2} left( 1 + operatorname{erf} left(   frac{x-mu}{sigmasqrt{2}} right) right) .

A la inversa, si Z es una distribución normal estándar, Z ~ N(0,1), entonces

X = σZ + μ

es una variable aleatoria normal tipificada de media μ y varianza σ2.

La distribución normal estándar está tabulada (habitualmente en la forma de el valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe más arriba, de la distribución estándar. De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal.

[editar] Momentos

Los primeros momentos de la distribución normal son:

NúmeroMomentoMomento centralCumulante
011 
1μ0μ
2μ2 + σ2σ2σ2
3μ3 + 3μσ200
4μ4 + 6μ2σ2 + 3σ440
5μ5 + 10μ3σ2 + 15μσ400
6μ6 + 15μ4σ2 + 45μ2σ4 + 15σ615σ60
7μ7 + 21μ5σ2 + 105μ3σ4 + 105μσ600
8μ8 + 28μ6σ2 + 210μ4σ4 + 420μ2σ6 + 105σ8105σ80

Todos los cumulantes de la distribución normal, más allá del segundo, son cero.


Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula

 Eleft[X^{2k}right]=frac{(2k)!}{2^k k!} sigma^{2k}.

[editar] El Teorema del Límite Central

Artículo principal: Teorema del límite central
Gráfica de la función de distribución de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomial con n = 48 y p = 1/4

El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal.

La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:

  • Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np y n(1 − p) son ambos, al menos, 5; en este caso se debería aplicar una corrección de continuidad).
    La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
  • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
    La distribución normal aproximada tiene parámetros μ = σ2 = λ.

La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.

[editar] Divisibilidad infinita

Las normales tienen una distribución de probabilidad infinitamente divisible: dada una media μ, una varianza σ 2 ≥ 0, y un número natural n, la suma X1 + . . . + Xn de n variables aleatorias independientes

X_1+X_2+dots+X_n sim N(mu/n, sigma!/sqrt n),

tiene esta específica distribución normal (para verificarlo, úsese la función característica de convolución y la inducción matemática).

[editar] Estabilidad

Las distribuciones normales son estrictamente estables.

[editar] Desviación típica e intervalos de confianza

Alrededor del 68% de los valores de una distribución normal están a una distancia σ > 1 (desviación típica) de la media, μ; alrededor del 95% de los valores están a dos desviaciones típicas de la media y alrededor del 99,7% están a tres desviaciones típicas de la media. Esto se conoce como la "regla 68-95-99,7" o la "regla empírica".

Para ser más precisos, el área bajo la curva campana entre μ − nσ y μ + nσ en términos de la función de distribución normal viene dada por

begin{align}&Phi_{mu,sigma^2}(mu+nsigma)-Phi_{mu,sigma^2}(mu-nsigma) &=Phi(n)-Phi(-n)=2Phi(n)-1=mathrm{erf}bigl(n/sqrt{2},bigr),end{align}

donde erf es la función error. Con 12 decimales, los valores para los puntos 1-, 2-, hasta 6-σ son:

 n, mathrm{erf}bigl(n/sqrt{2},bigr),
1 0,682689492137 
20,954499736104
30,997300203937
40,999936657516
50,999999426697
60,999999998027

La siguiente tabla proporciona la relación inversa de múltiples σ correspondientes a unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos valores son útiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintóticamente normales):

 mathrm{erf}bigl(n/sqrt{2},bigr) n, 
0,80 1,28155 
0,901,64485
0,951,95996
0,982,32635
0,992,57583
0,9952,80703
0,9983,09023
0,9993,29052
0,99993,8906
0,999994,4172

donde el valor a la izquierda de la tabla es la proporción de valores que caerán en el intervalo dado y n es un múltiplo de la desviación típica que determina la anchura de el intervalo.

[editar] Forma familia exponencial

La distribución normal tiene forma de familia exponencial biparamétrica con dos parámetros naturales, μ y 1/σ2, y estadísticos naturales X y X2. La forma canónica tiene como parámetros {mu over sigma^2} y {1 over sigma^2} y estadísticos suficientes sum  x y -{1 over 2} sum  x^2.

[editar] Distribución normal compleja

Considérese la variable aleatoria compleja gaussiana

 Z=X+iY,

donde X e Y son variables gaussianas reales e independientes con igual varianza sigma_r^2. La función de distribución de la variable conjunta es entonces

 frac{1}{2,pi,sigma_r^2} e^{-(x^2+y^2)/(2 sigma_r ^2)}.

Como sigma_Z =sqrt{2}sigma_r, la función de distribución resultante para la variable gaussiana compleja Z es

 frac{1}{pi,sigma_Z^2} e^{-|Z|^2!/sigma_Z^2}.

[editar] Distribuciones relacionadas

  • Y˜Cauchy(μ = 0,θ = 1) es una distribución de Cauchy si Y = X1 / X2 para X1˜N(0,1) y X2˜N(0,1) son dos distribuciones normales independientes.
  • Distribución normal truncada. si X sim N(mu, sigma^2),! entonces truncando X por debajo de A y por encima de B dará lugar a una variable aleatoria de media E(X)=mu + frac{sigma(varphi_1-varphi_2)}{T},! donde T=Phileft(frac{B-mu}{sigma}right)-Phileft(frac{A-mu}{sigma}right), ; varphi_1 = varphileft(frac{A-mu}{sigma}right), ; varphi_2 = varphileft(frac{B-mu}{sigma}right) y varphi es la función de densidad de una variable normal estándar.

[editar] Estadística descriptiva e inferencial

[editar] Resultados

De la distribución normal se derivan muchos resultados, incluyendo rangos de percentiles ("percentiles" o "cuantiles"), curvas normales equivalentes, stanines, z-scores, y T-scores. Además, un número de procedimientos de estadísticos de comportamiento están basados en la asunción de que esos resultados están normalmente distribuidos. Por ejemplo, el test de Student y el análisis de varianza (ANOVA) (véase más abajo). La gradación de la curva campana asigna grados relativos basados en una distribución normal de resultados.

[editar] Tests de normalidad

Artículo principal: Test de normalidad

Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribución normal. La hipótesis nula es, en estos casos, si el conjunto de datos es similar a una distribución normal, por lo que un P-valor suficientemente pequeño indica datos no normales.

[editar] Estimación de parámetros

[editar] Estimación de parámetros de máxima verosimilitud

Supóngase que

X_1,dots,X_n

son independientes y cada una está normalmente distribuida con media μ y varianza σ 2 > 0. En términos estadísticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida. Se desa estimar la media poblacional μ y la desviación típica poblacional σ, basándose en las valores observados de esta muestra. La función de densidad conjunta de estas n variables aleatorias independientes es

begin{align}f(x_1,dots,x_n;mu,sigma) &= prod_{i=1}^n varphi_{mu,sigma^2}(x_i) &=frac1{(sigmasqrt{2pi})^n}prod_{i=1}^n expbiggl(-{1 over 2} Bigl({x_i-mu over sigma}Bigr)^2biggr), quad(x_1,ldots,x_n)inmathbb{R}^n. end{align}

Como función de μ y σ, la función de verosimilitud basada en las observaciones X1, ..., Xn es

 L(mu,sigma) = frac C{sigma^n} expleft(-{sum_{i=1}^n (X_i-mu)^2 over 2sigma^2}right), quadmuinmathbb{R}, sigma>0,

con alguna constante C > 0 (de la cual, en general, se permitiría incluso que dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la función de log-verosimilitud respecto a los parámetros tenidos en cuenta, véase más abajo).

En el método de máxima verosimilitud, los valores de μ y σ que maximizan la función de verosimilitud se toman como estimadores de los parámetros poblacionales μ y σ.

Habitualmente en la maximización de una función de dos variables, se podrían considerar derivadas parciales. Pero aquí se explota el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. No obstante, encontramos que ese valor de μ, entonces se sustituye por μ en la función de verosimilitud y finalmente encontramos el valor de σ que maximiza la expresión resultante.

Es evidente que la función de verosimilitud es una función decreciente de la suma

sum_{i=1}^n (X_i-mu)^2. ,!

Así que se desea el valor de μ que minimiza esta suma. Sea

overline{X}_n=(X_1+cdots+X_n)/n

la media muestral basada en las n observaciones. Nótese que

 begin{align} sum_{i=1}^n (X_i-mu)^2 &=sum_{i=1}^nbigl((X_i-overline{X}_n)+(overline{X}_n-mu)bigr)^2 &=sum_{i=1}^n(X_i-overline{X}_n)^2 + 2(overline{X}_n-mu)underbrace{sum_{i=1}^n (X_i-overline{X}_n)}_{=,0} + sum_{i=1}^n (overline{X}_n-mu)^2 &=sum_{i=1}^n(X_i-overline{X}_n)^2 + n(overline{X}_n-mu)^2. end{align}

Sólo el último término depende de μ y se minimiza por

widehat{mu}_n=overline{X}_n.

Esta es la estimación de máxima verosimilitud de μ basada en las n observaciones X1, ..., Xn. Cuando sustituimos esta estimación por μ en la función de verosimilitud, obtenemos

L(overline{X}_n,sigma) = frac C{sigma^n} expbiggl(-{sum_{i=1}^n (X_i-overline{X}_n)^2 over 2sigma^2}biggr), quadsigma>0.

Se conviene en denotar la "log-función de verosimilitud", esto es, el logaritmo de la función de verosimilitud, con una minúscula , y tenemos

ell(overline{X}_n,sigma)=log C-nlogsigma-{sum_{i=1}^n(X_i-overline{X}_n)^2 over 2sigma^2}, quadsigma>0,

entonces

 begin{align} {partial over partialsigma}ell(overline{X}_n,sigma) &=-{n over sigma} +{sum_{i=1}^n (X_i-overline{X}_n)^2 over sigma^3} &=-{n over sigma^3}biggl(sigma^2-{1 over n}sum_{i=1}^n (X_i-overline{X}_n)^2 biggr), quadsigma>0. end{align}

Esta derivada es positiva, cero o negativa según σ2 esté entre 0 y

hatsigma_n^2:={1 over n}sum_{i=1}^n(X_i-overline{X}_n)^2,

o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observación, lo que significa que n = 1, o si X1 = ... = Xn, lo cual sólo ocurre con probabilidad cero, entonces hatsigma{}_n^2=0 por esta fórmula, refleja el hecho de que en estos casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero.)

Consecuentemente esta media de cuadrados de residuos es el estimador de máxima verosimilitud de σ2, y su raíz cuadrada es el estimador de máxima verosimilitud de σ basado en las n observaciones. Este estimador hatsigma{}_n^2 es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n − 1) veces este estimador.

[editar] Sorprendente generalización

La derivada del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es despreciable. Involucra el teorema espectral y la razón por la que puede ser mejor para ver un escalar como la traza de una matriz 1×1 matrix que como un mero escalar. Véase estimación de la covarianza de matrices.

[editar] Estimación insesgada de parámetros

El estimador de máxima verosimilitud de la media poblacional μ de una muestra es un estimador insesgado de la media. El estimador de máxima verosimilitud de la varianza es insesgado si asumimos que la población es conocida a priori, pero en la práctica esto no ocurre.No obstante, si nos enfrentamos con una muestra y no sabemos nada de la media o la varianza de la población de la que se ha extraído, como se asumía en la derivada de máxima verosimilitud de arriba, entonces el estimador de máxima verosimilitud de la varianza es sesgado. Un estimador insesgado de la varianza σ2 es:

 S^2 = frac{1}{n-1} sum_{i=1}^n (X_i - overline{X})^2.

Esta "varianza muestral" sigue una distribución Gamma si todas las Xi son independientes e idénticamente distribuidas:

 S^2 sim operatorname{Gamma}left(frac{n-1}{2},frac{2 sigma^2}{n-1}right),

con media operatorname{E}(S^2)=sigma^2 y varianza operatorname{Var}(S^2)=2sigma^4/(n-1).

La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la estimación de máxima verosimilitud de la varianza. No obstante, ni esta, ni la raíz cuadrada de la varianza muestral proporcionan un estimador insesgado para la desviación típica (véase estimación insesgada de la desviación típica para una fórmula particular para la distribución normal.

[editar] Incidencia

Las distribuciones aproximadamente normales aparecen por doquier, como queda explicado por el teorema central del límite. Cuando en un fenómeno se sospecha la presencia de un gran número de pequeñas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones serán "normales". Hay métodos estadísticos para probar empíricamente esta asunción, por ejemplo, el test de Kolmogorov-Smirnov.

Hay causas que pueden actuar de forma multiplicativa (más que aditiva). En este caso, la asunción de normalidad no está justificada y es el logaritmo de la variable en cuestión el que estaría normalmente distribuido. La distribución de las variables directamente observadas en este caso se denomina log-normal.

Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideración, la asunción de normalidad no está tampoco justificada. Esto es cierto incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribución completa será una superposición de variables normales, que no es en general normal. Ello está relacionado con la teoría de errores (véase más abajo).

A continuación se muestran una lista de situaciones que estarían, aproximadamente, normalmente distribuidas. Más abajo puede encontrarse una discusión detallada de cada una de ellas:

  • En problemas de recuento, donde el teorema central del límite incluye una aproximación de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles están involucradas, tales como:
  • En medidas fisiológicas de especímenes biológicos:
    • El logaritmo de las medidas del tamaño de tejidos vivos (longitud, altura, superficie de piel, peso);
    • La longitud de apéndices inertes (pelo, garras, rabos, dientes) de especímenes biológicos en la dirección del crecimento;
    • Otras medidas fisiológicas podrían estar normalmente distribuidas, aunque no hay razón para esperarlo a priori;
  • Se asume con frecuencia que los errores de medida están normalmente distribuidos y cualquier desviación de la normalidad se considera una cuestión que debería explicarse;
  • Variables financieras, en el modelo Black-Scholes:
    • Cambios en el logaritmo de

Changes in the logarithm of tasas de cambio, índices de precios, índices de existencias de mercado; estas variables se comportan como el interés compuesto, no como el interés simple, por tanto, son multiplicativas;

    • Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas pesadas, como puede verse en crash de las existencias de mercado;
    • Otras variables financieras podrían estar normalmente distribuidas, pero no hay razón para esperarlo a priori;
  • Intensidad de la luz:
    • La intensidad de la luz láser está normalmente distribuida;
    • La luz térmica tiene una distribución de Bose-Einstein en escalas de tiempo muy breves y una distribución normal en grandes escalas de tiempo debido al teorema central del límite.

Es relevante para la biolgía y la economía el hecho de que los sistemas complejos tienden a mostrar power laws más que normal.

[editar] Recuento de fotones

La intensidad de la luz de una sola fuente varía con el tiempo, así como las fluctuaciones térmicas que pueden observarse si la luz se analiza a una resolución suficientemente alta. La mecánica cuántica interpreta las medidas de la intensidad de la luz como un recuento de fotones, donde la asunción natural es usar la distribución de Poisson. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximación Poisson - Normal es apropiada.

[editar] Medida de errores

La normalidad es la asunción central de la teoría matemática de errores. De forma similar en el ajuste de modelos estadístico, un indicador de la bondad del ajuste es que el error residual (así es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. La asunción es que cualquier desviación de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teoría de errores, la normalidad es la única observación que no necesita ser explicada, sino que es esperada. No obstante, si los datos originales no están normalmente distribuidos (por ejemplo, si siguen una distribución de Cauchy, entonces los residuos tampoco estarán normalmente distribuidos. Este hecho es ignorado habitualmente en la práctica.

Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que están agrupados entorno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta, se asume que el error que queda debe ser el resultado de un gran número de muy pequeños y aditivos efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemáticos que no han sido tomados en cuenta. Puede debatirse si esta asunción es válida.

Una famosa observación atribuida a Gabriel Lippmann dice:[cita requerida]

Todo el mundo cree en la ley normal de los errores: los matemáticos, porque piensan que es un hecho experimental; y los experimentadores, porque suponen que es un teorema matemático

Otra fuente podría ser Henri Poincaré.

[editar] Características físicas de especímenes biológicos

Los tamaños de los animales adultos siguen aproximadamente una distribución lognormal. La evidencia y explicación basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relativo, de 1932, por Julian Huxley.

Las diferencias de tamaño debido a dimorfismos sexuales u otros polimorfismos de insectos, como la división social de las abejas en obreras, zánganos y reinas, por ejemplo, hace que la distribución de tamaños se desvíe hacia la lognormalidad.

La asunción de que el tamaño lineal de los especímenes biológicos es normal (más que lognormal) nos lleva a una distribución no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas sólo mantienen las transformaciones lineales). A la inversa, asumir que el peso sigue una distribución normal implica longitudes no normales. Esto es un problema porque, a priori, no hay razón por la que cualquiera de ellas (longitud, masa corporal u otras) debería estar normalmente distribuida. Las distribuciones lognormales, por otro lado, se mantienen entre potencias, así que el "problema" se desvanece si se asume la lognormalidad.

Por otra parte, hay algunas medidas biológicas donde se asume normalidad, tales como la presión sanguínea en humanos adultos. Esta asunción sólo es posible tras separar a hombres y mujeres en distintas poblaciones, cada una de las cuales está normalmente distribuida.

[editar] Variables financieras

El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras.

Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribución normal. Esta aproximación se ha modificado desde entonces ligeramente. A causa de la naturaleza multiplicativa del interés compuesto, los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". Como tales, sus cambios periódicos (por ejemplo, cambios anuales) no son normales, sino lognormales. Esta es todavía la hipótesis más comúnmente aceptada en economía.

No obstante, en realidad las variables financieras exhiben colas pesadas y así, la asunción de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a este modelo por parte de matemáticos como Benoît Mandelbrot, quien observó que los cambios en el logaritmo durante breves periodos de tiempo (como un día) se aproximan bien por distribuciones que no tienen una varianza finita y, por consiguiente, el teorema central del límite no puede aplicarse. Más aún, la suma de muchos de tales cambios sigue una distribución de log-Levy.

[editar] Distribuciones en tests de inteligencia

A veces, la dificultad y número de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos. Más aún, las puntuaciones "en crudo" se convierten a valores que marcan el cociente intelectual ajustándolas a la distribución normal. En cualquier caso se trata de un resultado causado deliberadamente por la construcción del test o de una interpretación de las puntuaciones que sugiere normalidad para la mayoría de la población. Sin embargo, la cuestión acerca de si la inteligencia en sí está normalmente distribuida es más complicada porque se trata de una variable latente y, por consiguiente, no puede observarse directamente.

[editar] Ecuación de difusión

La función de densidad de la distribución normal está estrechamente relacionada con la ecuación de difusión (homogénea e isótropa) y, por tanto, también con la ecuación de calor. Esta ecuación diferencial parcial describe el tiempo de evolución de una función de densidad bajo difusión. En particular, la función de densidad de masa

varphi_{0,t}(x) = frac{1}{sqrt{2pi t,}}expleft(-frac{x^2}{2t}right),

para la distribución normal con esperanza 0 y varianza t satisface la ecuación de difusión:

 frac{partial}{partial t} varphi_{0,t}(x) = frac{1}{2} frac{partial^2}{partial x^2} varphi_{0,t}(x).

Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac, lo cual significa, esencialemente que toda la masa está inicialmente concentrada en un punto, entonces la función de densidad de masa en el tiempo t tendrá la forma de la función de densidad de la normal, con varianza creciendo linealmente con t. Esta conexión no es coincidencia: la difusión se debe a un movimiento Browniano que queda descrito matemáticamente por un proceso de Wiener, y tal proceso en un tiempo t también resultará normal con varianza creciendo linealmente con t'.

Más generalmente, si la densidad de masa inicial viene dada por una función φ(x), entonces la densidad de masa en un tiempo t vendrá dada por la convolución de φ y una función de densidad normal.

[editar] Uso en estadística computacional

[editar] Generación de valores para una variable aleatoria normal

Para simulaciones por ordenador es útil, en ocasiones, generar valores que podrían seguir una distribución normal. Hay varios métodos y el más básico de ellos es invertir la función de distribución de la normal estándar. Se conocen otros métodos más eficientes, uno de los cuales es la transformacion de Box-Muller. Un algoritmo incluso más rápido es el algoritmo zigurat. Ambos se discuten más abajo. Una aproximación simple a estos métodos es programarlos como sigue: simplemente súmense 12 desviaciones uniformes (0,1) y réstense 6 (la mitad de 12). Esto es bastante útil en muchas aplicaciones. La suma de esos 12 valores sigue la distribución de Irwin-Hall; son elegidos 12 para dar a la suma una varianza de uno, exactamente. Las desviaciones aleatorias resultantes están limitadas al rango (−6, 6) y tienen una densidad que es una doceava sección de una aproximación polinomial de undécimo orden a la distribución normal .[10]

El método de Box-Muller dice que, si tienes dos números aleatorios U y V uniformemente distribuidos en (0, 1], (por ejemplo, la salida de un generador de números aleatorios), entonces X e Y son dos variables aleatorias estándar normalmente distribuidas, donde:

Y = sqrt{- 2 ln U} , sin(2 pi V) .

Esta formulación aparece porque la distribución χ² con dos grados de libertad (véase la propiedad 4, más arriba) es una variable aleatoria exponencial fácilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). Así, un ángulo elegido uniformemente alrededor de un círculo vía la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas.

Un método mucho más rápido que la transformación de Box-Muller, pero que sigue siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97% de los casos usa sólo dos números aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicación y un test-si . Sólo un 3% de los casos donde la combinación de estos dos cae fuera del "corazón del zigurat", un tipo de rechazo muestral usando logaritmos, exponenciales y números aleatorios más uniformes deberían ser empleados.

Hay también alguna investigación sobre la conexión entre la rápida transformación de Hadamard y la distribución normal, en virtud de que la transformación emplea sólo adición y sustracción y por el teorema central del límite los números aleatorios de casi cualquier distribución serán transformados en la distribución normal. En esta visión se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.

[editar] Aproximaciones numéricas de la distribución normal y su función de distribución

La función de distribución normal se usa extensamente en computación científica y estadística. Por consiguiente, ha sido implementada de varias formas.

La Biblioteca Científica GNU calcula valores de la función de distribución normal estándar usando aproximaciones por funciones racionales a trozos. Otro método de aproximación usa polinomios de tercer grado en intervalos.[11] El artículo sobre el lenguaje de programación bc proporciona un ejemplo de cómo computar la función de distribución en GNU bc.

Para una discusión más detallada sobre cómo calcular la distribución normal, véase la sección 3.4.1C. de The Art of Computer Programming (El arte de la programación por ordenador), de Knuth.

[editar] Uso de tablas

La probabilidad de que una variable aleatoria (que sigue una distribución normal) se encuentre entre dos valores determinados será en general difícil de calcular (hay que usar la integral de la función de probabilidad). Para ello, existen tablas con los valores correspondientes, si bien éstos se calculan para la distribución Normal Tipificada.

Básicamente, se busca un valor de x (por ejemplo, x=0,37 ,!), y la tabla nos da la probabilidad de que Zle x ,!: P(Z_{(0,1)} le 0,37)= 0,644 308 699 ,!

En el caso de que la distribución no sea estándar, por ejemplo, N(mu ,sigma^2) ,! con mu =2 ,! y sigma^2 =9 ,!, tendremos que tipificar la variable: P(X_{(2,3)} le 2,6)= Pleft (frac{X_{(2,3)} -mu }{sigma}le frac{2,6-mu}{sigma} right)=P left(Z_{(0,1)} le frac{2,6-2}{3}right)=P left(Z_{(0,1)} le 0,2 right) ,! Se obtiene una variable Z normal, que además está tipificada. Si ahora se consulta en la tabla, P(X_{(2,3)} le 2,6) = P(Z_{(0,1)} le 0,2) = 0,579 259 687  ,!

[editar] Véase también

[editar] Referencias

  1. Es una consecuencia del Teorema Central del Límite
  2. Abraham de Moivre, "Approximatio ad Summam Terminorum Binomii (a + b)n in Seriem expansi" (impreso el 12 de noviembre de 1733 en Londres para una edición privada). Este panfleto se reimprimió en: (1) Richard C. Archibald (1926) “A rare pamphlet of Moivre and some of his discoveries,” Isis, vol. 8, páginas 671-683; (2) Helen M. Walker, “De Moivre on the law of normal probability” en David Eugene Smith, A Source Book in Mathematics [Nueva York, Nueva York: McGraw-Hill, 1929; reimpresión: Nueva York, Nueva York: Dover, 1959], vol. 2, páginas 566-575.; (3) Abraham De Moivre, The Doctrine of Chances (2ª ed.) [Londres: H. Woodfall, 1738; reimpresión: Londres: Cass, 1967], páginas 235-243; (3ª ed.) [Londres: A Millar, 1756; reimpresión: Nueva York, Nueva York: Chelsea, 1967], páginas 243-254; (4) Florence N. David, Games, Gods and Gambling: A History of Probability and Statistical Ideas [Londres: Griffin, 1962], Apéndice 5, páginas 254-267.
  3. Havil, 2003
  4. Wussing, Hans. «Lección 10». Lecciones de Historia de las Matemáticas (1ª (castellano) edición). Siglo XXI de España Editores, S.A.. pp. 190. ISBN 84-323-0966-4. http://books.google.es/books?id=IG3_b5Xm8PMC. «"La distribución normal y sus aplicaciones a la teoría de errores se asocia a menudo con el nombre de Gauss, quien la descubrió -igual que Laplace- independientemente; no obstante ya había sido estudiada por de Moivre» 
  5. Weisstein, Eric W. «Normal Distribution» (en inglés). MathWorld. Wolfram Research. Consultado el 18 de marzo de 2009.
  6. La función Q
  7. http://www.eng.tau.ac.il/~jo/academic/Q.pdf
  8. Weisstein, Eric W. «Normal Distribution Function» (en inglés). MathWorld. Wolfram Research.
  9. M.A. Sanders. «Characteristic function of the univariate normal distribution». Consultado el 06-03-2009.
  10. Johnson NL, Kotz S, Balakrishnan N. (1995) Continuous Univariate Distributions Volume 2, Wiley. Equation(26.48)
  11. Andy Salter. «B-Spline curves». Consultado el 05-12-2008.

[editar] Enlaces externos

MATEMÁTICAS: ¿HA PENSADO SI LOS NÚMEROS SON SIMÉTRICOS, OPUESTOS...?. ¿HA PENSADO EN LA INTELIGENCIA Y LA FRONTALIDAD?. La simetría es la exacta correspondencia de todas las partes de una figura respecto de un centro, un eje o un plano. La simetría es un rasgo característico de formas geométricas, sistemas, ecuaciones, y otros objetos materiales o entidades abstractas, relacionada con su invariancia bajo ciertas transformaciones, movimientos o intercambios. En condiciones formales, decimos que un objeto es simétrico en lo que concierne a una operación matemática dada, si, cuando aplicado al objeto, esta operación no cambia el objeto o su aspecto. Dos objetos son simétricos uno al otro en lo que concierne a un grupo dado de operaciones si uno es obtenido de otro por algunas operaciones (y viceversa). En la geometría 2D las clases principales de simetría de interés son las que conciernen a las isometrías de un espacio euclídeo: traslaciones, rotaciones, reflexiones y reflexiones que se deslizan.

Simetría

De Wikipedia, la enciclopedia libre
El hombre Vitrubio, de Leonardo da Vinci (ca. 1487), es una representación frecuente de la simetría del cuerpo humano, y por extensión del mundo natural.

La simetría es la exacta correspondencia de todas las partes de una figura respecto de un centro, un eje o un plano.

La simetría es un rasgo característico de formas geométricas, sistemas, ecuaciones, y otros objetos materiales o entidades abstractas, relacionada con su invariancia bajo ciertas transformaciones, movimientos o intercambios.

En condiciones formales, decimos que un objeto es simétrico en lo que concierne a una operación matemática dada, si, cuando aplicado al objeto, esta operación no cambia el objeto o su aspecto. Dos objetos son simétricos uno al otro en lo que concierne a un grupo dado de operaciones si uno es obtenido de otro por algunas operaciones (y viceversa). En la geometría 2D las clases principales de simetría de interés son las que conciernen a las isometrías de un espacio euclídeo: traslaciones, rotaciones, reflexiones y reflexiones que se deslizan.

La simetría también puede ser encontrado en organismos vivos.

Contenido

[ocultar]

[editar] Simetría en geometría

Grupo de simetría de la esfera.

Cuando hablamos de objetos físicos o elementos geométricos el concepto de simetría está asociado a transformaciones geométricas tales como las rotaciones, las reflexiones o las traslaciones. Así se dice que un objeto presenta:

  • Simetría esférica si existe simetría bajo cualquier rotación posible, matemáticamente equivale a que el grupo de simetría de un objeto físico o entidad matemática sea SO(3).
  • Simetría cilíndrica o axial, si existe un eje tal que los giros alrededor de él no conducen a cambios de posición en el espacio, matemáticamente está asociado a un grupo de isometría SO(2).
  • Simetría reflectiva,se define por la existencia de un único plano, matemáticamente está asociado al grupo SO(1) o su representación equivalente mathbb{Z}_2.

Si tratamos además de regiones geométricas infinitas, no acotadas, además puede existir simetría traslacional

[editar] Simetría en física

En física el concepto de simetría puede formularse en una forma no geométrica. Si K es un conjunto de objetos matemáticos del mismo tipo (funciones, formas geométricas, ecuaciones, ...) y G es un grupo de transformaciones que actúa sobre K de tal manera que:

g (in G): K to K

Se dice que un elemento de k0 presenta simetría si:[1]

forall gin G: g(k_0) = k_0

Así por ejemplo varias leyes de conservación de la física son consecuencia de la existencia de simetrías abstractas del lagrangiano, tal como muestra el teorema de Noether. En ese caso K representaría el conjunto de lagrangianos admisibles, k0 el lagrangian[2]

  • Ejemplo 1. Como primer ejemplo consideremos un electrón moviéndose entre dos placas infinitas cargadas uniformemente (dicho sistema se aproxima cierto tipo de condensadores), dado que cualquier tralación paralela a los planos constituye una simetría del sistema físico, entonces tanto la fuerza paralela a dichos planos es nula y por tanto la velocidad paralela a los planos es constante.
  • Ejemplo 2. Consideremos un satélite orbitando alredodor de un astro (planeta o estrella) con simetría esférica perfecta, consideremos además que la velocidad del satelite sea perpendicular a la línea entre el centro del satélite y el astro. En ese caso, el lagrangiano es totalmente invariante respecte a rotaciones según un eje que pase por el centro de la fuente del campo gravitatorio. En este caso debido a la simetría de rotación tanto del lagrangiano como de las condiciones iniciales del movimiento, la velocidad perpendicular al planeta es constante y la trayectoria es un círculo invariante bajo una rotación perpendicular al plano de la órbita.

Estos dos ejemplos anteriores son casos del teorema de Noether, un resultado general que establece que si existe un grupo uniparamétrico de simetría G para el lagrangiano tal que:

forall phi_lambdain G: L(phi_lambda(mathbf{q}),phi_lambda(dotmathbf{q}),t) =  L(mathbf{q},dotmathbf{q},t)

Entonces la cantidad escalar:

left langle left . frac{dphi_lambda}{dlambda}right vert_{lambda=0}, frac{dL}{ddotmathbf{q}}rightrangle = v_1p_1 + ... + v_Np_N

Siendo v el campo vectorial que general el grupo uniparamétrico de transformaciones de simetría, y pi los momentos conjungados de las coordenadas generalizadas de posición.

[editar] Simetría en química

Artículo principal: Simetría molecular

En química la simetría geométrica de las moléculas es importante, particularmente en química orgánica. Además propiedades como su momento dipolar y las transiciones espectroscópicas permitidas (basadas en reglas de selección como la regla de Laporte) pueden predecirse o ser explicadas a partir de la simetría de la molécula. Las simetrías que aparecen en química están asociadas a grupos finitos de isometrías, en concreto son grupos puntuales de transformaciones de isometría.

[editar] Simetría en biología

Ilustración de los distintos tipos de simetría en las formas orgánicas (Field Museum, Chicago).

Simetría en biología es la equilibrada distribución en el cuerpo de los organismos de aquellas partes que aparecen duplicadas. Los planes corporales de la mayoría de organismos pluricelulares exhiben alguna forma de simetría, bien sea simetría radial o simetría bilateral. Una pequeña minoría no presenta ningún tipo de simetría (son asimétricos).

[editar] Simetría radial

Artículo principal: Simetría radial (biología)

La simetría radial es la simetría definida por un eje heteropolar (distinto en sus dos extremos). El extremo que contiene la boca se llama lado oral, y su opuesto lado aboral o abactinal. Sobre este eje, se establecen planos principales de simetría; dos perpendiculares que definen las posiciones per-radiales. Las estructuras en otros planos (bisectrices de los per-radiales) quedan en posiciones inter-radiales. La zona entre los per-radiales y los inter-radiales es la zona ad-radial.

[editar] Simetría bilateral

Artículo principal: Simetría bilateral

La mayoría de especies animales tiene simetría bilateral y pertenece por tanto al grupo Bilateria, aunque hay especies como los erizos y las estrellas de mar que presentan simetría radial secundaria (las fases de desarrollo tempranas y las larvas poseen simetría bilateral que posteriormente se pierde en el adulto). La simetría bilateral permite la definición de un eje corporal en la dirección del movimiento, lo que favorece la formación de un sistema nervioso centralizado y la cefalización.

[editar] Simetría en música

En música clásica, existen composiciones en las que podemos encontrar distribuciones de las notas generadas mediante simetría bilateral, traslación o giros de media vuelta. Algunos ejemplos de autores y composiciones conocidas, son: Bach Preludio, Domenico Scarlatti Sonata en G mayor, Robert Schumann Lotosblume, o Richard Wagner Die Meiestersinger.

[editar] Simetría en alimentación de AC

En el contexto de la electrónica de radiofrecuencia, se habla de una alimentación simétrica de AC cuando ninguno de los conductores está a la masa. Cuando uno de los conductores está a la masa y el otro experimenta las variaciones de tensión, se dice que la alimentación es asimétrica.

Existen importantes aplicaciones tecnológicas basadas en la alimentación simétrica, ya que la alimentación simétrica tiene la gran ventaja de que la pérdida de potencia en la línea de transmisión es un orden de magnitud menor que la alimentación asimétrica por cable coaxial.

  • En efecto, el campo alterno generado por el conductor ascendente es cancelado por el campo generado por su homólogo descendente.
  • Además, la alimentación simétrica en delta permite la simplificación de la construcción.

La alimentación simétrica es por lo tanto la alimentación preferida en la operación QRP y en el modo EME, modos donde cada dB de ganancia cuenta.

[editar] Referencias

  1. Wald, 1984, p. 441-444.
  2. jkj

[editar] Bibliografía

[editar] Enlaces

MATEMÁTICAS: SISTEMAS. Un sistema (del latín systema, proveniente del griego σύστημα) es un conjunto de funciones, virtualmente referenciada sobre ejes, bien sean estos reales o abstractos. También suele definirse como un conjunto de elementos dinámicamente relacionados formando una actividad para alcanzar un objetivo operando sobre datos, energía o materia para proveer información.

Sistema

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Sistema (desambiguación).

Un sistema (del latín systema, proveniente del griego σύστημα) es un conjunto de funciones, virtualmente referenciada sobre ejes, bien sean estos reales o abstractos. También suele definirse como un conjunto de elementos dinámicamente relacionados formando una actividad para alcanzar un objetivo operando sobre datos, energía o materia para proveer información.

Un sistema es un conjunto de partes o elementos organizadas y relacionadas, que interactúan entre en si, para llegar a un mismo objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y tienen como resultado que proveen (salida) información, energía o materia.

Los sistemas tienen límites o fronteras, que los diferencian del ambiente. Ese limite puede ser físico (el gabinete de una computadora) o conceptual. Si hay algún intercambio entre el sistema y el ambiente a través de ese límite, el sistema es abierto, de lo contrario el sistema seria cerrado. El ambiente es el medio externo que envuelve física o conceptualmente a un sistema. El ambiente también puede ser una amenaza para el sistema.

Contenido

[ocultar]

[editar] Sistemas reales y sistemas conceptuales

Un sistema conceptual o sistema ideal es un conjunto organizado de definiciones, nombres, símbolos y otros instrumentos de pensamiento o comunicación. Ejemplos de sistemas conceptuales son las matemáticas, la lógica formal, la nomenclatura binomial o la notación musical.

Un sistema es un conjunto de elementos relacionados intimamente entre sí para alcanzar un objetivo.

Un sistema real es una entidad material formada por partes organizadas (o sus "componentes") que interactúan entre sí de manera que las propiedades del conjunto, sin contradecirlas, no pueden deducirse por completo de las propiedades de las partes. Tales propiedades se denominan propiedades emergentes.

Los sistemas reales intercambian con su entorno energía, información y, en la mayor parte de los casos, también materia. Una célula, un ser vivo, la Biosfera o la Tierra entera son ejemplos de sistemas naturales. El concepto se aplica también a sistemas humanos o sociales, como una sociedad entera, la administración de un estado, un ejército o una empresa. O a una lengua, que es un sistema conceptual complejo en cuya aparición y evolución participan la biología y la cultura.


Encontrar lo común a entidades muy diferentes. El esfuerzo por encontrar leyes generales del comportamiento de los sistemas reales es el que funda la Teoría de sistemas y, más en general, aquella tendencia de la investigación a la que se alude como pensamiento sistémico o Sistémica, en cuyo marco se encuentran disciplinas y teorías como la Cibernética, la Teoría de la información, la Teoría de juegos, la Teoría del caos y otras.

[editar] Tipos de sistemas

En cuanto a su constitución, pueden ser físicos o abstractos:

  • Sistemas físicos o concretos: compuestos por equipos, maquinaria, objetos y cosas reales. El hardware.
  • Sistemas abstractos: compuestos por conceptos, planes, hipótesis e ideas. Muchas veces solo existen en el pensamiento de las personas. Es el software.

En cuanto a su naturaleza, pueden cerrados o abiertos:

  • Sistemas cerrados: no presentan intercambio con el medio ambiente que los rodea, son herméticos a cualquier influencia ambiental. No reciben ningún recurso externo y nada produce que sea enviado hacia fuera. En rigor, no existen sistemas cerrados. Se da el nombre de sistema cerrado a aquellos sistemas cuyo comportamiento es determinista y programado y que opera con muy pequeño intercambio de energía y materia con el ambiente. Se aplica el término a los sistemas completamente estructurados, donde los elementos y relaciones se combinan de una manera peculiar y rígida produciendo una salida invariable, como las máquinas.
  • Sistemas abiertos: presentan intercambio con el ambiente, a través de entradas y salidas. Intercambian energía y materia con el ambiente. Son adaptativos para sobrevivir. Su estructura es óptima cuando el conjunto de elementos del sistema se organiza, aproximándose a una operación adaptativa. La adaptabilidad es un continuo proceso de aprendizaje y de auto-organización.
  • Sistemas aislados: son aquellos sistemas en los que no se produce intercambio de materia ni energìa.

Los sistemas abiertos no pueden vivir aislados. Los sistemas cerrados, cumplen con el segundo principio de la termodinámica que dice que "una cierta cantidad llamada entropía, tiende a aumentar al máximo".

Existe una tendencia general de los eventos en la naturaleza física en dirección a un estado de máximo desorden. Los sistemas abiertos evitan el aumento de la entropía y pueden desarrollarse en dirección a un estado de creciente orden y organización (entropía negativa). Los sistemas abiertos restauran sus propia energía y reparan pérdidas en su propia organización. El concepto de sistema abierto se puede aplicar a diversos niveles de enfoque: al nivel del individuo, del grupo, de la organización y de la sociedad.

[editar] Tipos de sistemas reales y orgánicos

Los sistemas reales pueden ser abiertos, cerrados o aislados, según que realicen o no intercambios con su entorno. Un sistema abierto es un sistema que recibe flujos (energía y materia) de su ambiente, cambiando o ajustando su comportamiento o su estado según las entradas que recibe. Los sistemas abiertos, por el hecho de recibir energía, pueden realizar el trabajo de mantener sus propias estructuras e incluso incrementar su contenido de información (mejorar su organización interna).

  • Un sistema abierto puede compartir materia o energía con su medio ambiente.
  • Un sistema cerrado no puede compartir materia, pero si puede compartir energía con su medio ambiente.
  • Un sistema aislado no puede compartir ni energía ni materia con su medio ambiente.

Una pared sirve para aislar un sistema con su medio ambiente, una pared puede ser rígida o móvil, impermeable o no impermeable y adiabática o no adiabática, dependiendo si conduce o no calor, conductora o no conductora de energía eléctrica e incluso puede ser aislante de frecuencias de audio.

Un sistema cerrado no necesariamente tiene que ser aislado, en cambio un sistema aislado si que tiene que ser cerrado.

Un sistema rodeado por una pared rígida, impermeable, adiabática, no conductora y aislante de frecuencias de audio es un sistema aislado.

Cuando un sistema tiene la organización necesaria para controlar su propio desarrollo, asegurando la continuidad de su composición y estructura (homeostasis) y la del conjunto de flujos y transformaciones con que funciona (homeorresis), mientras las perturbaciones producidas desde su entorno no superen cierto grado, se denomina sistema autopoyético.

La expresión sistemas cibernéticos se les aplica a éstos por su capacidad de control autónomo, dependiente de la existencia de mecanismos de retroalimentación negativa. Los mismos son llamados sistemas disipativos porque la conservación del orden (información) en su seno, y más su ampliación, requieren la disipación permanente de energía.

Los sistemas complejos, cibernéticos, autoorganizados y disipativos son a la vez sistemas teleológicos (sistemas adaptativos), que requieren para ser descritos un lenguaje finalístico, que se refiere a sus procesos como funciones y recurre constantemente a explicaciones que empiezan por «para».

[editar] Otras aplicaciones del término

[editar] En el arte

Se considera que el arte es un sistema porque es un conjunto de elementos que se relacionan entre sí. El sistema del arte esta compuesto por un conjunto de elementos que se denominan arte. Esos elementos son por ejemplo: la cultura, las pinturas, o formas de expresión realizadas por el hombre. Este sistema se puede considerar un sistema abierto porque recibe influencia y a su vez influye en otros sistemas por estar dentro de otro sistema más grande. Recibe influencia del mundo científico, de los sistemas económicos, religiones, etc.

[editar] En matemáticas

El cálculo entre distintos sistemas a diferentes jerarquías se realiza mediante el cálculo de transformación. Cada sistema tiene un conjunto de ejes, a su vez cada eje puede ser la referencia a la actividad de otro sistema. Para reubicar los valores de los sistemas a diferentes jerarquías sobre un eje de referencias, se usan transformadas destinadas a tratar las referencias conforme al espacio o área de referencia final. Así pueden haber transformadas directas e inversas. No puede existir transformación si previamente no ha habido una integración.

[editar] Véase también