Blogia
petalofucsia

Matemáticas

MATEMÁTICAS: ¿VA ANTES EL GRUPO O LA PAREJA EN MATEMÁTICAS? SI QUIERE PENSAR EN LA FAMILIA DE NÚMEROS YA PUEDE. Grupo (del italiano gruppo), la pluralidad de elementos que forman un conjunto.

Grupo

De Wikipedia, la enciclopedia libre

Grupo (del italiano gruppo), la pluralidad de elementos que forman un conjunto, puede hacer referencia a:

Contenido

[ocultar]

[editar] En matemáticas

[editar] En astronomía

[editar] En física

[editar] En química

[editar] En geología

  • Grupo es una unidad de formaciones geológicas:

[editar] En biología

[editar] En hematología

[editar] En sociología y antropología

[editar] En lingüística

  • Grupo es un conjunto de lenguas emparentadas:

[editar] En economía

[editar] En relaciones internacionales

[editar] En parlamentarismo

[editar] En tecnología

[editar] En música

[editar] En arte

[editar] Topónimos

[editar] Otros usos

[editar] Véase también



MATEMÁTICAS: ESTADÍSTICA. RELACIONAR USOS Y PARÁMETROS (MODA) EN EL DISEÑO Y EL FORMATEADO DE USOS COMO LOS VEHÍCULOS DE TRANSPORTE. En estadística se llama valor representativo de la población parámetro estadístico, medida estadística o parámetro poblacional a un valor representativo de una población,[1] como la media aritmética, la proporción de individuos que presentan determinada característica, o la desviación típica.[2]

Ç

PORCHE

AUDI

MERCEDES

RENAULT

JAGUAR XF

CITROËN GT

Diccionario de la lengua española © 2005 Espasa-Calpe:

uso

  1. m. Acción y resultado de usar:
    lo he comprado para vuestro uso y disfrute.
  2. Ejercicio o práctica general de una cosa:
    el uso de las armas.
  3. Costumbre o práctica que está de moda o es característica de alguien o de una época:
    usos amorosos del siglo xviii.
  4. uso de razón Capacidad de raciocinio que se adquiere pasada la primera niñez.
  5. al uso loc. adv. Según la moda o la costumbre:
    en la boda, las señoras lucirán pamelas al uso
    ♦ No confundir con huso.


Diccionario de la lengua española © 2005 Espasa-Calpe:

usar

  1. tr. Hacer que un objeto sirva para algo:
    no comas con los dedos, usa los cubiertos. También intr.
  2. Servirse de algo:
    ¿me dejas usar tu coche?
  3. Llevar habitualmente cierta prenda o adorno personal:
    usa gemelos.
  4. intr. Hacer o practicar algo habitualmente o por costumbre:
    usaba dar un paseíto al caer la tarde.
  5. prnl. Estar de moda:
    esa expresión ya no se usa.


Preguntas en los foros con la(s) palabra(s) 'uso' en el título:


'uso' también aparece en estas entradas

abono - abuso - acónito - acotado - acotamiento - acotar - adaptador - adecuado - adivinación - adivinar - adivino - aerotaxi - afeamiento - aguachirle - ahora - ajuar - -al - alguien - alquilar - alquiler - amortización - amortizar - anabaptismo - anfetamina - animalización - animalizar - anís - anticoncepción - anticuado - antipersonal - antirradar - añafil - añojo - apañado - apelmazar - arcén - arraigar - arrendamiento - arrendar - artesano - asignar - asolar - asturleonés - atestar - autodidacto - autopista - azucarero - baldar - banco - cabina
Diccionario de sinónimos y antónimos © 2005 Espasa-Calpe:

uso

  • desgaste, deterioro, ajamiento, envejecimiento, deslucimiento, decadencia, raedura, roce
  • utilización, empleo, dedicación, ocupación, fin, función, usufructo
    • Antónimos: desuso, inutilidad
  • costumbre, hábito, rutina, práctica

Diccionario de sinónimos y antónimos © 2005 Espasa-Calpe:

usar

  • utilizar, emplear, consumir, dedicar, disponer, manejar, explotar, servirse, valerse
  • acostumbrar, soler, frecuentar
  • estilarse

'uso' también aparece en estas entradas

uso.

(Del lat. usus).

1. m. Acción y efecto de usar.

2. m. Ejercicio o práctica general de algo.

3. m. moda.

4. m. Modo determinado de obrar que tiene alguien o algo.

5. m. Empleo continuado y habitual de alguien o algo.

6. m. Der. Derecho no transmisible a percibir de los frutos de la cosa ajena los que basten a las necesidades del usuario y de su familia.

7. m. Der. Forma del derecho consuetudinario inicial de la costumbre, menos solemne que esta y que suele convivir como supletorio con algunas leyes escritas.

~ de razón.

1. m. Posesión del natural discernimiento, que se adquiere pasada la primera niñez.

2. m. Tiempo en que se descubre o se empieza a reconocer este discernimiento en los actos del niño o del individuo.

al ~.

1. loc. adv. Conforme o según el uso.

andar alguien al ~.

1. loc. verb. Acomodarse al tiempo, contemporizar con las cosas según piden las ocasiones.

a ~.

1. loc. adv. al uso.

entrar alguien en los ~s.

1. loc. verb. Seguir lo que se estila y practica por otros, y conformarse con los usos y costumbres del país o pueblo donde reside.

estar en buen ~ lo que ya se ha usado.

1. loc. verb. coloq. No estar estropeado.

V.

amor al uso



Real Academia Española © Todos los derechos reservados

Parámetro estadístico

De Wikipedia, la enciclopedia libre

Cscr-featured.svg
La media aritmética como resumen de la vejez de un país

En estadística se llama valor representativo de la población parámetro estadístico, medida estadística o parámetro poblacional a un valor representativo de una población,[1] como la media aritmética, la proporción de individuos que presentan determinada característica, o la desviación típica.[2]

Un parámetro es un número que resume la ingente cantidad de datos que pueden derivarse del estudio de una variable estadística.[3] El cálculo de este número está bien definido, usualmente mediante una fórmula aritmética obtenida a partir de datos de la población.[4] [5]

Los parámetros estadísticos son una consecuencia inevitable del propósito esencial de la estadística: modelizar la realidad.[6]

El estudio de una gran cantidad de datos individuales de una población puede ser farragoso e inoperativo, por lo que se hace necesario realizar un resumen que permita tener una idea global de la población, compararla con otras, comprobar su ajuste a un modelo ideal, realizar estimaciones sobre datos desconocidos de la misma y, en definitiva, tomar decisiones. A estas tareas contribuyen de modo esencial los parámetros estadísticos.

Por ejemplo, suele ofrecerse como resumen de la "juventud" de una población la media aritmética de las edades de sus miembros, esto es, la suma de todas ellas, dividida por el total de individuos que componen tal población.

Contenido

[ocultar]

Enfoque descriptivo [editar]

Gráficas de distribuciones normales para distintos valores de sus dos parámetros

Un parámetro estadístico es, como se ha dicho, un número que resume una cantidad de datos. Este enfoque es el tradicional de la Estadística descriptiva.[7] [8] [9] En este sentido, su acepción se acerca a la de medida o valor que se compara con otros, tomando una unidad de una determinada magnitud como referencia.

Por su parte, la facción más formal de la Estadística, la Estadística matemática y también la Inferencia estadística utilizan el concepto de parámetro en su acepción matemática más pura, esto es, como variable que define una familia de objetos matemáticos en determinados modelos. Así se habla, por ejemplo, de una distribución Normal de parámetros μ y σ como de una determinada familia de distribuciones con una distribución de probabilidad de expresión conocida, en la que tales parámetros definen aspectos concretos como la esperanza, la varianza, la curtosis, etc. Otro ejemplo común en este sentido es el de la distribución de Poisson, determinada por un parámetro, λ; o la Distribución binomial, determinada por dos parámetros, n y p. Para los ojos de la Estadística matemática el hecho de que estas distribuciones describan situaciones reales y los citados parámetros signifiquen un resumen de determinado conjunto de datos es indiferente.

Controversia [editar]

Como se ha dicho, los parámetros estadísticos, en el enfoque descriptivo que aquí se adopta, substituyen grandes cantidades de datos por unos pocos valores extraídos de aquellos a través de operaciones simples. Durante este proceso se pierde parte de la información ofrecida originalmente por todos los datos. Es por esta pérdida de datos por lo que la estadística ha sido tildada en ocasiones de una falacia. Por ejemplo, si en un grupo de tres personas una de ellas ingiere tres helados, el parámetro que con más frecuencia se utiliza para resumir datos estadísticos, la media aritmética (del número de helados ingeridos por el grupo), sería igual a 1 ( = frac{0+0+3}{3}), valor que no parece resumir fielmente la información. Ninguna de las personas se sentiría identificada con la frase resumen "he ingerido un helado de media".[10]

Un ejemplo menos conocido, pero igual de ilustrativo acerca de la claridad de un parámetro es la distribución exponencial, que suele regir los tiempos medios entre determinados tipos de sucesos. Por ejemplo, si la vida media de una bombilla es de 8.000 horas, más del 50% de las veces no llegará a esa media. Igualmente, si un autobús pasa cada 10 minutos de media, hay una probabilidad mayor del 50% de que pase menos de 10 minutos entre un autobús y el siguiente.

Otro ejemplo que suele ofrecerse con frecuencia para argumentar en contra de la estadística y sus parámetros es que, estadísticamente hablando, la temperatura media de una persona con los pies en un horno y la cabeza en una nevera es ideal.

Benjamín Disraeli, un descreído de las estadísticas.

Quizás por situaciones como estas, que en general muestran un profundo desconocimiento de lo que los parámetros representan en realidad y de su uso conjunto con otras medidas de centralización o dispersión, el primer ministro inglés Benjamín Disraeli sentenció[11] primero y Mark Twain popularizó más tarde[12] la siguiente afirmación:

Hay mentiras, grandes mentiras y estadísticas.

Hay otros personajes que también han advertido sobre la simplificación que supone la estadística, como el profesor Aaron Levenstein, quien afirmaba:

Las estadísticas son como los bikinis, lo que muestran es sugerente, pero lo que esconden es vital.

Por su parte, el escritor y comediante inglés Bernard Shaw sentenció:[13]

La estadística es una ciencia que demuestra que si mi vecino tiene dos coches y yo ninguno, los dos tenemos uno.

o el personaje ficticio Homer Simpson de la popular serie de televisión Los Simpson en una entrevista acerca de las proporciones en uno de sus capítulos:[14]

¡Oh!, la gente sale con estadísticas para probar cualquier cosa, el 14% del mundo lo sabe.
Guionistas de la serie Los Simpson

Propiedades deseables en un parámetro [editar]

Según Yule[15] un parámetro estadístico es deseable que tenga las siguientes propiedades:

  • Se define de manera objetiva, es decir, es posible calcularlo sin ambigüedades, generalmente mediante una fórmula matemática. Por ejemplo, la media aritmética se define como la suma de todos los datos, dividida por el número de datos. No hay ambigüedad: si se realiza ese cálculo, se obtiene la media; si se realiza otro cálculo, se obtiene otra cosa. Sin embargo, la definición de moda como el "valor más frecuente", puede dar lugar a confusión cuando la mayor frecuencia la presentan varios valores distintos.
  • No desperdicia, a priori, ninguna de las observaciones. Con carácter general, un parámetro será más representativo de una determinada población, cuántos más valores de la variable estén implicados en su cálculo. Por ejemplo, para medir la dispersión puede calcularse el recorrido, que sólo usa dos valores de la variable objeto de estudio, los extremos; o la desviación típica, en cuyo cálculo intervienen todos los datos del eventual estudio.
  • Es interpretable, significa algo. La mediana, por ejemplo, deja por debajo de su valor a la mitad de los datos, está justo en medio de todos ellos cuando están ordenados. Esta es una interpretación clara de su significado.
  • Es sencillo de calcular y se presta con facilidad a manipulaciones algebraicas. Se verá más abajo que una medida de la dispersión es la desviación media. Sin embargo, al estar definida mediante un valor absoluto, función definida a trozos y no derivable, no es útil para gran parte de los cálculos en los que estuviera implicada, aunque su interpretación sea muy clara.
  • Es poco sensible a las fluctuaciones muestrales. Si pequeñas variaciones en una muestra de datos estadísticos influyen en gran medida en un determinado parámetro, es porque tal parámetro no representa con fiabilidad a la población. Así pues es deseable que el valor de un parámetro con esta propiedad se mantenga estable ante las pequeñas oscilaciones que con frecuencia pueden presentar las distintas muestras estadísticas. Esta propiedad es más interesante en el caso de la estimación de parámetros. Por otra parte, los parámetros que no varían con los cambios de origen y escala o cuya variación está controlada algebraicamente, son apropiados en determinadas circunstancias como la tipificación.

Principales parámetros [editar]

Habitualmente se agrupan los parámetros en las siguientes categorías:

Medidas de posición.[16]

Se trata de valores de la variable estadística que se caracterizan por la posición que ocupan dentro del rango de valores posibles de esta. Entre ellos se distinguen:

  • Las medidas de tendencia central: medias, moda y mediana.
  • Las medidas de posición no central: cuantiles (cuartiles, deciles y percentiles).
Medidas de dispersión.[17]

Resumen la heterogeneidad de los datos, lo separados que estos están entre sí. Hay dos tipos, básicamente:

  • Medidas de dispersión absolutas, que vienen dadas en las mismas unidades en las que se mide la variable: recorridos, desviaciones medias, varianza, desviación típica y meda.
  • Medidas de dispersión relativa, que informan de la dispersión en términos relativos, como un porcentaje. Se incluyen entre estas el coeficiente de variación, el coeficiente de apertura, los recorridos relativos y el índice de desviación respecto de la mediana.
Medidas de forma.[18]

Su valor informa sobre el aspecto que tiene la gráfica de la distribución. Entre ellas están los coeficientes de asimetría y los de curtosis.

Otros parámetros.

Además, y con propósitos más específicos, existen otros parámetros de uso en situaciones muy concretas, como son las proporciones, los números índice, las tasas y el coeficiente de Gini.

Medidas de posición [editar]

Las medidas de posición son las más utilizadas para resumir los datos de una distribución estadística. Se trata de valores de la propia variable[19] que, en cierto modo, sustituyen la información provista por los datos.

Medidas de tendencia central o centralización [editar]

Artículo principal: Medidas de tendencia central

Son valores que suelen situarse hacia el centro de la distribución de datos. Los más destacados son las medias o promedios (incluyendo la media aritmética, la media geométrica y la media armónica), la mediana y la moda.

Media aritmética o promedio [editar]
La estatura media como resumen de una población homogénea (abajo) o heterogénea (arriba).
Artículo principal: Media aritmética

La media aritmética es, probablemente, uno de los parámetros estadísticos más extendidos.[20]

Dado un conjunto numérico de datos, x1, x2, ..., xn, se define su media aritmética como

 overline{x} = frac{x_1 + x_2 + ... + x_n}{n} = frac{sum_{i=1}^n x_i}{n}

Esta definición varía, aunque no sustancialmente, cuando se trata de variables continuas.

Sus propiedades son:[21]

  • Su cálculo es muy sencillo y en él intervienen todos los datos.
  • Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos, ya que tiene la propiedad de equilibrar las desviaciones de los datos respecto de su propio valor:
 frac{sum_{i=1}^n (x_i-overline{x})}{n} = frac{sum_{i=1}^n x_i}{n} - frac{sum_{i=1}^n overline{x}}{n} = overline{x} - overline{x} = 0
  • Minimiza las desviaciones cuadráticas de los datos respecto de cualquier valor prefijado, esto es, el valor de  frac{sum_{i=1}^n (x_i-k)^2}{n} es mínimo cuando k = overline{x}. Este resultado se conoce como Teorema de König. Esta propiedad permite interpretar uno de los parámetros de dispersión más importantes: la varianza.
xi' = axi + b entonces overline{x'} = a overline{x} + b, donde overline{x'} es la media aritmética de los xi', para i = 1, ..., n y a y b números reales.

Este parámetro, aún teniendo múltiples propiedades que aconsejan su uso en situaciones muy diversas, tiene también algunos inconvenientes, como son:

  • Para datos agrupados en intervalos (variables continuas) su valor oscila en función de la cantidad y amplitud de los intervalos que se consideren.
  • Es una medida a cuyo significado afecta sobremanera la dispersión, de modo que cuanto menos homogéneos son los datos, menos información proporciona. Dicho de otro modo, poblaciones muy distintas en su composición pueden tener la misma media.[22] Por ejemplo, un equipo de baloncesto con cinco jugadores de igual estatura, 1,95, pongamos por caso, tendría una estatura media de 1,95, evidentemente, valor que representa fielmente a esta homogénea población. Sin embargo, un equipo de estaturas más heterogéneas, 2,20, 2,15, 1,95, 1,75 y 1,70, por ejemplo, tendría también, como puede comprobarse, una estatura media de 1,95, valor que no representa a casi ninguno de sus componentes.
  • Es muy sensible a los valores extremos de la variable. Por ejemplo, en el cálculo del salario medio de un empresa, el salario de un alto directivo que gane 1.000.000 de tiene tanto peso como el de mil empleados "normales" que ganen 1.000 €, siendo la media de aproximadamente 2.000 €.
Moda [editar]
Artículo principal: Moda (estadística)

La moda es el dato más repetido, el valor de la variable con mayor frecuencia absoluta.[23] En cierto sentido se corresponde su definición matemática con la locución "estar de moda", esto es, ser lo que más se lleva.

Su cálculo es extremadamente sencillo, pues sólo necesita de un recuento. En variables continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la interpolación.

Sus principales propiedades son:

  • Cálculo sencillo.
  • Interpretación muy clara.
  • Al depender sólo de las frecuencias, puede calcularse para variables cualitativas. Es por ello el parámetro más utilizado cuando al resumir una población no es posible realizar otros cálculos, por ejemplo, cuando se enumeran en medios periodísticos las características más frecuentes de determinado sector social. Esto se conoce informalmente como "retrato robot".[24]

Inconvenientes.

  • Su valor es independiente de la mayor parte de los datos, lo que la hace muy sensible a variaciones muestrales. Por otra parte, en variables agrupadas en intervalos, su valor depende excesivamente del número de intervalos y de su amplitud.
  • Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera de la moda, no afectan en modo alguno a su valor.
  • No siempre se sitúa hacia el centro de la distribución.
  • Puede haber más de una moda en el caso en que dos o más valores de la variable presenten la misma frecuencia (distribuciones bimodales o multimodales).
Mediana [editar]
Artículo principal: Mediana (estadística)

La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez que estos están ordenados de menor a mayor.[25] Por ejemplo, la mediana del número de hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición central es 2:

       underbrace{1, 1, 1, 1, 1, 1, }_{Mitad ; inferior} ;       underbrace{color{Red} 2, }_{Mediana ;} ;        underbrace{2, 2, 2, 3, 3, 4}_{Mitad ; superior}

En caso de un número par de datos, la mediana no correspondería a ningún valor de la variable, por lo que se conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso de doce datos como los anteriores:

       underbrace{1, 1, 1, 1, 1, }_{Valores ; inferiores} ;       underbrace{color{Red} 1, 2, }_{Valores ; intermedios} ;       underbrace{2, 2, 3, 3, 4}_{Valores ; superiores}

Se toma como mediana  1,5 = frac{{color{Red}1}+{color{Red}2}}{2}

En este ejemplo basado en una tabla real de percentiles usada en pediatría, puede comprobarse que una niña de 24 meses con un peso de 13 kg estaría en el percentil 75º, esto es, su peso es superior al 75% de las niñas de su edad. La mediana correspondería, aproximadamente, a 12 kg (intersección de la línea curva más oscura con la línea horizontal correspondiente al valor 12 en el eje vertical, para esa misma edad).

Existen métodos de cálculo más rápidos para datos más numerosos (véase el artículo principal dedicado a este parámetro). Del mismo modo, para valores agrupados en intervalos, se halla el "intervalo mediano" y, dentro de este, se obtiene un valor concreto por interpolación.

Propiedades de la mediana como parámetro estadístico:[26]

  • Es menos sensible que la media a oscilaciones de los valores de la variable. Un error de transcripción en la serie del ejemplo anterior en, pongamos por caso, el último número, deja a la mediana inalterada.
  • Como se ha comentado, puede calcularse para datos agrupados en intervalos, incluso cuando alguno de ellos no está acotado.
  • No se ve afectada por la dispersión. De hecho, es más representativa que la media aritmética cuando la población es bastante heterogénea. Suele darse esta circunstancia cuando se resume la información sobre los salarios de un país o una empresa. Hay unos pocos salarios muy altos que elevan la media aritmética haciendo que pierda representatividad respecto al grueso de la población. Sin embargo, alguien con el salario "mediano" sabría que hay tanta gente que gana más dinero que él, como que gana menos.

Sus principales inconvenientes son que en el caso de datos agrupados en intervalos, su valor varía en función de la amplitud de estos. Por otra parte, no se presta a cálculos algebraicos tan bien como la media aritmética.

Medidas de posición no central [editar]

Artículo principal: Medidas de posición no central

Directamente relacionados con la anterior, se encuentran las medidas de posición no central, también conocidas como cuantiles. Se trata de valores de la variable estadística que dejan por debajo de sí determinada cantidad de los datos. Son, en definitiva, una generalización del concepto de la mediana. Mientras que ésta deja por debajo de sí al 50% de la distribución, los cuantiles pueden hacerlo con cualquier otro porcentaje.[27] Se denominan medidas de posición porque informan, precisamente, de la posición que ocupa un valor dentro de la distribución de datos.

Tradicionalmente se distingue entre cuartiles, si se divide la cantidad de datos en cuatro partes antes de proceder al cálculo de los valores que ocupan cada posición; deciles, si se divide los datos en diez partes; o percentiles, que dividen la población en cien partes.

Ejemplos: si se dice que una persona, tras un test de inteligencia, ocupa el percentil 75, ello supone que el 75% de la población tiene un cociente intelectual con un valor inferior al de esa persona. Este criterio se usa por las asociaciones de superdotados, que limitan su conjunto de miembros a aquellas que alcanzan determinado percentil (igual o superior a 98 en la mayoría de los casos).

El ejemplo que se muestra en la imagen de la derecha es el correspondiente al cálculo inverso, esto es, cuando se desea conocer el percentil correspondiente a un valor de la variable, en lugar del valor que corresponde a un determinado percentil.

Otras medidas de posición central son la media geométrica y la media armónica que, aunque tienen determinadas propiedades algebraicas que podrían hacerlas útiles en determinadas circunstancias, su interpretación no es tan intuitiva como la de los parámetros anteriores.[28]

Comentarios sobre las medidas de posición [editar]

Este tipo de parámetros no tienen por qué coincidir con un valor exacto de la variable y, por tanto, tampoco pueden usarse con carácter general para hacer pronósticos. Por ejemplo, si se dice que la media aritmética de los hijos de las familias de un país es de 1,2, no es posible encontrar familias con ese valor en concreto. Un segundo ejemplo: a ninguna fábrica de zapatos se le ocurriría fabricar los suyos con tallas únicamente correspondientes al valor promedio, ni siquiera tienen por qué ser estas tallas las más fabricadas, pues en tal caso sería más apropiado atender a la moda de la distribución de tallas de los eventuales clientes.

La elección de uno u otro parámetro dependerá de cada caso particular, de los valores de la variable y de los propósitos del estudio. Su uso indiscriminado puede ser deliberadamente tendencioso o involuntariamente sesgado, convirtiéndose, de hecho, en un abuso.[10] Puede pensarse, por ejemplo, en la siguiente situación: un empresario publica que el salario medio en su empresa es de 1.600 €. A este dato, que en determinadas circunstancias podría considerarse muy bueno, podría llegarse si la empresa tuviese cuatro empleados con salarios de 1.000 € mensuales y el salario del jefe, incluido en la media, fuese de 4.000 € al mes:[29]

bar{x} = frac{1000+1000+1000+1000+4000}{5} = 1600

Con carácter general y a modo de resumen podría decirse que la media aritmética es un parámetro representativo cuando la población sigue una distribución normal o es bastante homogénea; en otras situaciones de fuerte dispersión, habría que decantarse por la mediana. La moda es el último recurso (y el único) cuando de describir variables cualitativas se trata.

Medidas de dispersión [editar]

Artículo principal: Dispersión (matemática)
Diagrama de caja que muestra la dispersión gráficamente, usando los cuartiles como referencia. Entre Q1 y Q3 (rango intercuartílico) se encuentran el 50% de las observaciones.

Las medidas de posición resumen la distribución de datos, pero resultan insuficientes y simplifican excesivamente la información. Estas medidas adquieren verdadero significado cuando van acompañadas de otras que informen sobre la heterogeneidad de los datos. Los parámetros de dispersión miden eso precisamente, generalmente, calculando en qué medida los datos se agrupan entorno a un valor central. Indican, de un modo bien definido, lo homogéneos que estos datos son. Hay medidas de dispersión absolutas, entre las cuales se encuentran la varianza, la desviación típica o la desviación media, aunque también existen otras menos utilizadas como los recorridos o la meda; y medidas de dispersión relativas, como el coeficiente de variación, el coeficiente de apertura o los recorridos relativos. En muchas ocasiones las medidas de dispersión se ofrecen acompañando a un parámetro de posición central para indicar en qué medida los datos se agrupan en torno de él.[30]

Medidas de dispersión absolutas [editar]

Recorridos [editar]

El recorrido o rango de una variable estadística es la diferencia entre el mayor y el menor valor que toma la misma. Es la medida de dispersión más sencilla de calcular, aunque es algo burda porque sólo toma en consideración un par de observaciones. Basta con que uno de estos dos datos varíe para que el parámetro también lo haga, aunque el resto de la distribución siga siendo, esencialmente, la misma.

Existen otros parámetros dentro de esta categoría, como los recorridos o rangos intercuantílicos, que tienen en cuenta más datos y, por tanto, permiten afinar en la dispersión. Entre los más usados está el rango intercuartílico, que se define como la diferencia entre el cuartil tercero y el cuartil primero. En ese rango están, por la propia definición de los cuartiles, el 50% de las observaciones. Este tipo de medidas también se usa para determinar valores atípicos. En el diagrama de caja que aparece a la derecha se marcan como valores atípicos todos aquellos que caen fuera del intervalo [Li, Ls] = [Q1 - 1,5·Rs, Q3 + 1,5·Rs], donde Q1 y Q3 son los cuartiles 1º y 3º, respectivamente, y Rs representa la mitad del recorrido o rango intercuartílico, también conocido como recorrido semiintercuartílico.[31]

Desviaciones medias [editar]
Artículo principal: Desviación media

Dada una variable estadística X y un parámetro de tendencia central, c, se llama desviación de un valor de la variable, xi, respecto de c, al número |xi - c|. Este número mide lo lejos que está cada dato del valor central c, por lo que una media de esas medidas podría resumir el conjunto de desviaciones de todos los datos.

Así pues, se denomina desviación media de la variable X respecto de c a la media aritmética de las desviaciones de los valores de la variable respecto de c, esto es, si

X = {x_1, , x_2, , ...,, x_n}, entonces  DM_c = frac{sum_{i=1}^n left| x_i - c right|}{n}

De este modo se definen la desviación media respecto de la media (c = overline{x}) o la desviación media respecto de la mediana (c = overline{Me}), cuya interpretación es sencilla en virtud del significado de la media aritmética.[30]

Sin embargo, el uso de valores absolutos impide determinados cálculos algebraicos que obligan a desechar estos parámetros, a pesar de su clara interpretación, en favor de los siguientes.

Varianza y desviación típica [editar]
Artículos principales: Varianza y desviación típica
Conjunto de datos estadísticos de media aritmética 50 (línea azul) y desviación típica 20 (líneas rojas).

Como se vio más arriba, la suma de todas las desviaciones respecto al parámetro más utilizado, la media aritmética, es cero. Por tanto si se desea una medida de la dispersión sin los inconvenientes para el cálculo que tienen las desviaciones medias, una solución es elevar al cuadrado tales desviaciones antes de calcular el promedio. Así, se define la varianza como:[32]

 {sigma^2} = frac{ sumlimits_{i=1}^n left( x_i - overline{x} right) ^ 2 }{n},

o sea, la media de las desviaciones respecto de la media, al cuadrado.

La desviación típica, σ, se define como la raíz cuadrada de la varianza, esto es,

 {sigma} = sqrt{sigma ^2}

Para variables agrupadas en intervalos, se usan las marcas de clase (un valor apropiado del interior de cada intervalo) en estos cálculos.

Propiedades:[32]

  • Ambos parámetros no se alteran con los cambios de origen.
  • Si todos los valores de la variable se multiplican por una constante, b, la varianza queda multiplicada por b2.
  • En el intervalo (overline{x} - ksigma, , overline{x} + ksigma) se encuentran, al menos, el 100(1-frac{1}{k^2})% de las observaciones (véase Desigualdad de Tchebyschev).[33]

Esta última propiedad muestra la potencia del uso conjunto de la media y la desviación típica como parámetros estadísticos, ya que para valores de k iguales a 1 y 2, respectivamente, se obtiene que:

  • En el intervalo (overline{x} - sigma, , overline{x} + sigma) están, al menos, el 75% de los datos.
  • En el intervalo (overline{x} - 2sigma, , overline{x} + 2sigma) están, al menos, el 89% de los datos.

Se cumple la siguiente relación entre los parámetros de dispersión:

D_{Me} leq D_{overline{x}} leq sigma

donde D_{Me}, , D_{overline{x}}, y σ son, respectivamente, la desviación media respecto de la mediana, la desviación media respecto de la media y la desviación típica (véase Desviación media).

Meda [editar]

Se llama meda o desviación mediana a la mediana de las desviaciones respecto de la media. Es una medida de dispersión que tiene, por su propia definición, las mismas propiedades que la mediana. Por ejemplo, no se ve afectada por valores extremos o atípicos.[34] No se utiliza demasiado en estadística.

Medidas de dispersión relativa [editar]

Son parámetros que miden la dispersión en términos relativos, un porcentaje o una proporción, por ejemplo, de modo que permiten una sencilla comparación entre la dispersión de distintas distribuciones.[35]

Coeficiente de variación de Pearson [editar]
Artículo principal: Coeficiente de variación

Se define como  C_V = frac{sigma}{bar{x}} , donde σ es la desviación típica y bar{x} es la media aritmética.

Se interpreta como el número de veces que la media está contenida en la desviación típica. Suele darse su valor en tanto por ciento, multiplicando el resultado anterior por 100. De este modo se obtiene un porcentaje de la variabilidad.

Su principal inconveniente es que en el caso de distribuciones cuya media se acerca a cero, su valor tiende a infinito e incluso resulta imposible de calcular cuando la media es cero. Por ello no puede usarse para variables tipificadas.

Coeficiente de apertura [editar]

Se define como el cociente entre los valores extremos de la distribución de datos, esto es, dada una distribución de datos estadísticos x1, x2, ..., xn, su coeficiente de apertura, CA es C_A = frac{macute{a}x(x_i)}{macute{imath}n(x_i)}, ; i = 1, ..., n

Se usa para comparar salarios de empresas.

Recorridos relativos [editar]

Dado Re, el recorrido de una distribución de datos estadísticos, el recorrido relativo, RR es R_R = frac{R_e}{bar{x}}, donde {bar{x}} es la media aritmética de la distribución.

Dada una distribución de datos estadísticos con cuartiles Q1, Q2 y Q3, el recorrido intercuartílico relativo, RIQR se define como[36] R_{IQR} = frac{Q_3 - Q_1}{Q_2}

Por otra parte, se define el recorrido semiintercuartílico relativo, RSIR, como R_{SIR} = frac{Q_3 - Q_1}{Q_3 + Q_1}

Índice de desviación respecto a la mediana [editar]

Se define como V_{Me} = frac{D_{Me}}{Me}, donde DMe es la desviación media respecto de la mediana y Me es la mediana de una distribución de datos estadísticos dada.

Medidas de forma [editar]

La campana de Gauss, curva que sirve de modelo para el estudio de la forma de una distribución.

Las medidas de forma caracterizan la forma de la gráfica de una distribución de datos estadísticos. La mayoría de estos parámetros tiene un valor que suele compararse con la campana de Gauss, esto es, la gráfica de la distribución normal, una de las que con más frecuencia se ajusta a fenómenos reales.

Medidas de asimetría [editar]

Artículo principal: Asimetría estadística

Se dice que una distribución de datos estadísticos es simétrica cuando la línea vertical que pasa por su media, divide a su representación gráfica en dos partes simétricas. Ello equivale a decir que los valores equidistantes de la media, a uno u otro lado, presentan la misma frecuencia.

En las distribuciones simétricas los parámetros media, mediana y moda coinciden, mientras que si una distribución presenta cierta asimetría, de un tipo o de otro, los parámetros se sitúan como muestra el siguiente gráfico:

Posiciones relativas de parámetros centrales.svg

Ello puede demostrarse fácilmente si se tiene en cuenta la atracción que la media aritmética siente por los valores extremos, que ya se ha comentado más arriba y las definiciones de mediana (justo en el centro de la distribución, tomando el eje de abscisas como referencia) y moda (valor que presenta una ordenada más alta).

Por consiguiente, la posición relativa de los parámetros de centralización pueden servir como una primera medida de la simetría de una distribución.

Otras medidas más precisas son el coeficiente de asimetría de Fisher, el coeficiente de asimetría de Bowley y el coeficiente de asimetría de Pearson.

Medidas de apuntamiento o curtosis [editar]

Tres distribuciones con distintos grados de apuntamiento.
Artículo principal: Curtosis

Con estos parámetros se pretende medir cómo se reparten las frecuencias relativas de los datos entre el centro y los extremos, tomando como comparación la campana de Gauss.

El parámetro usado con más frecuencia para esta medida es el coeficiente de curtosis de Fisher, definido como:

gamma_2 = frac{sum_{i=1}^n (x_i-bar{x})^4}{nsigma^4}-3,

aunque hay otros como el coeficiente de curtosis de Kelley o el coeficiente de curtosis percentílico.

La comparación con la distribución normal permite hablar de distribuciones platicúrticas o más aplastadas que la normal; distribuciones mesocúrticas, con igual apuntamiento que la normal; y distribuciones leptocúrticas, esto es, más apuntadas que la normal.[37]

Por último, existen otras medidas para decidir sobre la forma de una distribución con ajuste a modelos menos usuales como los que se muestran en las siguientes gráficas:

Forma distribucion.svg

Otros parámetros [editar]

Se presentan en este apartado otros parámetros que tienen aplicación en situaciones muy concretas, por lo que no se incluyen entre los grupos anteriores, aunque tienen cabida en este artículo por su frecuente uso en medios de comunicación y su facultad de resumir grandes cantidades de datos, como ocurre con las medidas tratadas hasta ahora.

Proporción [editar]

Artículo principal: Proporción

La proporción de un dato estadístico es el número de veces que se presenta ese dato respecto al total de datos. Se conoce también como frecuencia relativa y es uno de los parámetros de cálculo más sencillo. Tiene la ventaja de que puede calcularse para variables cualitativas.

Por ejemplo, si se estudia el color de ojos de un grupo de 20 personas, donde 7 de ellas los tienen azules, la proporción de individuos con ojos azules es del 35% (= 7/20%).

El dato con mayor proporción se conoce como moda (véase, más arriba).

En inferencia estadística existen intervalos de confianza para la estimación de este parámetro.

Número índice [editar]

Artículo principal: Número índice

Un número índice es una medida estadística que permite estudiar las fluctuaciones o variaciones de una magnitud o de más de una en relación al tiempo o al espacio. Los índices más habituales son los que realizan las comparaciones en el tiempo. Algunos ejemplos de uso cotidiano de este parámetro son el índice de precios o el IPC[38]

Tasa [editar]

Artículo principal: Tasa (índice)
Coeficiente de Gini en el mundo (2007-2008)

La tasa es un coeficiente que expresa la relación entre la cantidad y la frecuencia de un fenómeno o un grupo de fenómenos. Se utiliza para indicar la presencia de una situación que no puede ser medida en forma directa.[38] Esta razón se utiliza en ámbitos variados, como la demografía o la economía, donde se hace referencia a la tasa de interés.

Algunos de los más usados son: tasa de natalidad, tasa de mortalidad, tasa de crecimiento demográfico, tasa de fertilidad o tasa de desempleo.

Coeficiente de Gini [editar]

Artículo principal: Coeficiente de Gini

El índice o coeficiente de Gini es un parámetro de dispersión usado para medir desigualdades entre los datos de una variable o la mayor o menor concentración de los mismos.

Este coeficiente mide de qué forma está distribuida la suma total de los valores de la variable. Se suele usar para describir salarios. Los casos extremos de concentración serían aquel en los que una sola persona acapara el total del dinero disponible para salarios y aquel en el que este total está igualmente repartido entre todos los asalariados.[39]

Momentos [editar]

Artículos principales: Momento estándar y Momento centrado

Los momentos son una forma de generalizar toda la teoría relativa a los parámetros estadísticos y guardan relación con una buena parte de ellos.

Dada una distribución de datos estadísticos x1, x2, ..., xn, se define el momento central o momento centrado de orden k como

mu_k = frac{sum_{i=1}^n (x_i - bar{x})^k}{n}

Para variables continuas la definición cambia sumas discretas por integrales (suma continua), aunque la definición es, esencialmente, la misma.[40]

De esta definición y las propiedades de los parámetros implicados que se han visto más arriba, se deduce inmediatamente que:

mu_0 = 1; ; mu_1 = 0; ; mu_2 = sigma^2; ;

y que

gamma_1 = frac{mu_3}{mu_2^3}; ; ;  gamma_2 = frac{mu_4}{mu_2^4}

Se llama momento no centrado de orden k a la siguiente expresión:

m_k = frac{sum_{i=1}^n (x_i)^k}{n}

De la definición se deduce que:

m_0 = 1; ; m_1 = bar{x}; ; m_2 - m_1^2 = sigma^2;

Usando el Binomio de Newton puede obtenerse la siguiente relación entre los momentos centrados y no centrados:

mu_k = sum_{i=1}^n (-1)^k {kchoose i} m_{k-i} m_1 ^i

Los momentos de una distribución estadística la caracterizan unívocamente.[41]

Parámetros bidimensionales [editar]

Artículo principal: Estadística bidimensional

En estadística se estudian en ocasiones varias características de una población para compararlas, estudiar su dependencia o correlación o realizar cualquier otro estudio conjunto. El caso más común de dos variables se conoce como estadística bidimensional.[42]

Un ejemplo típico es el de un estudio que recoja la estatura (denotémosla por X) y el peso (sea Y) de los n individuos de una determinada población. En tal caso, fruto de la recogida de datos, se obtendría una serie de parejas de datos (xi, yi), con i = 1, ..., n, cada una de las cuales estaría compuesta por la estatura y el peso del individuo i, respectivamente.

En los estudios bidimensionales, cada una de las dos variables que entran en juego, estudiadas individualmente, pueden resumirse mediante los parámetros que se han visto hasta ahora. Así, tendría sentido hablar de la media de las estaturas (bar{X}) o la desviación típica de los pesos (σY). Incluso para un determinado valor de la primera variable, xk, cabe hacer estudios condicionados. Por ejemplo, la mediana condicionada a la estatura xk sería la mediana de los pesos de todos los individuos que tienen esa estatura. Se denota Me/x=xk.

Sin embargo existen otros parámetros que resumen características de ambas distribuciones en su conjunto. Los más destacados son el centro de gravedad, la covarianza y el coeficiente de correlación lineal.

Centro de gravedad [editar]

Dadas dos variables estadísticas X e Y, se define el centro de gravedad como la pareja (bar{X}, bar{Y}), donde bar{X} y bar{Y} son, respectivamente, las medias aritméticas de las variables X e Y.

El nombre de este parámetro proviene de que en una representación de las parejas del estudio en una nube de puntos, en la que cada punto tuviese un peso proporcional a su frecuencia absoluta, las coordenadas (bar{X}, bar{Y}) corresponderían, precisamente, al centro de gravedad como concepto físico.[43]

Covarianza [editar]

Artículo principal: Covarianza

La covarianza o varianza conjunta de una distribución bidimensional se define como:

sigma_{xy} = frac 1n sum_{i=1}^n { (x_i - overline{x})(y_i - overline{y})}

La interpretación de este parámetro tiene que ver con la eventual correlación lineal de las dos variables. Una covarianza positiva implica una correlación directa y una negativa, una correlación inversa.[44] Por otra parte, es un parámetro imprescindible para el cálculo del coeficiente de correlación lineal o los coeficientes de regresión, como se verá más abajo.

En su contra tiene que se ve excesivamente influenciada, al igual que ocurría con la media aritmética, por los valores extremos de las distribuciones y los cambios de escala.

Coeficiente de correlación lineal [editar]

Artículo principal: Coeficiente de correlación
Variación del coeficiente de correlación lineal en función de la nube de puntos asociada.

Se trata de un coeficiente que permite determinar la bondad del ajuste de la nube de puntos por una recta.

Se define como: r = frac{sigma_{xy}}{sigma_x sigma_y}, donde σxy es la covarianza y σx y σy, las desviaciones típicas respectivas de las distribuciones implicadas.

El coeficiente de correlación lineal toma valores entre -1 y 1. En esa escala, mide la correlación del siguiente modo:

  • La correlación lineal es más fuerte cuanto más cerca esté de -1 o 1.
  • La correlación lineal es más débil cuanto más próximo a cero sea r.[45]

El diagrama de la derecha ilustra cómo puede variar r en función de la nube de puntos asociada:

Otros parámetros bidimensionales son, el coeficiente de correlación de Spearman, los coeficientes de correlación no paramétricos, el coeficiente de determinación o los coeficientes de regresión lineal.

Al igual que con distribuciones unidimensionales, existe una forma equivalente de desarrollar la teoría relativa a los parámetros estadísticos bidimensionales usando los momentos.

Los parámetros en la inferencia estadística [editar]

En ocasiones los parámetros de una determinada población no pueden conocerse con certeza. Generalmente esto ocurre porque es imposible el estudio de la población completa por cuestiones como que el proceso sea destructivo (p. e., vida media de una bombilla) o muy caro (p.e., audiencias de televisión). En tales situaciones se recurre a las técnicas de la inferencia estadística para realizar estimaciones de tales parámetros a partir de los valores obtenidos de una muestra de la población.[46]

Se distingue entonces entre parámetros y estadísticos. Mientras que un parámetro es una función de los datos de la población, el estadístico lo es de los datos de una muestra. De este modo pueden definirse la media muestral, la varianza muestral o cualquier otro párametro de los vistos más arriba.

Por ejemplo, dada una muestra estadística de tamaño n, (x_1, x_2, ..., x_n), de una variable aleatoria X con distribución de probabilidad F(x,θ), donde θ es un conjunto de parámetros de la distribución, se definiría la media muestral n-ésima como:

bar{X}_n = T(x_1,x_2,...,x_n) = frac{1}{n} sum_{i=1}^n x_i = frac{x_1+x_2+...+x_n}{n}

En el caso concreto de la varianza muestral, suele tomarse, por sus mejores propiedades como estimador, la siguiente:

 S_n^2 = frac{1}{n-1} sum_{i=1}^n (X_i-bar{X_n})^2

donde se ha tomado como denominador n-1, en lugar de n. A este parámetro también se le llama cuasivarianza.[47]

Véase también [editar]

Referencias [editar]

  1. Clapham, Christopher (septiembre de 1998). Diccionario de Matemáticas, Traducción: De Sá Madariaga, Juan Mª L, Primera edición, Oxford-Complutense, p. 266. ISBN 84-89784-56-6.
  2. «Parámetro estadístico». Enciclopedia Microsoft® Encarta® Online 2009. Microsoft Corporation (2009). Consultado el 19 de abril de 2009.
  3. Ross, Sheldon M. (2007). «3. Uso de la Estadística para sintetizar conjuntos de datos.», Introducción a la Estadística, trad. Valdés Sánchez, Teófilo, Reverte, p. 69. ISBN 8429150390. Consultado el 5-4-2009.
  4. Fernández Gordillo, Juan Carlos (2008). «Parámetros estadísticos». Ditutor, Diccionario de Matemáticas. Consultado el 19 de abril de 2009.
  5. Serret Moreno-Gil, Jaime (1998). «4. Parámetros Estadísticos», Procedimientos estadísticos. ESIC, p. 71. ISBN 8473561716. Consultado el 19-4-2009.
  6. Pascual, José; Galbiati, José; González, Gladys; Maulén, Mª Angélica; Arancibia, Rodrigo. «Conceptos básicos: Modelo», Exploración de datos: Introducción a la Estadística Descriptiva, Diseñadora: Galbiati, Paola, Instituto de Estadística. Universidad Católica de Valparaíso. Consultado el 16-4-2009.
  7. «Parámetro estadístico». Enciclopedia Microsoft® Encarta® Online 2009. Microsoft Corporation (2009). Consultado el 19 de abril de 2009. «Parámetro estadístico, número que se obtiene a partir de los datos de una distribución estadística y que sirve para sintetizar alguna característica relevante de la misma.»
  8. Clapham, Christopher (septiembre de 1998). Diccionario de Matemáticas, Traducción: De Sá Madariaga, Juan Mª L, Primera edición, Oxford-Complutense, p. 266. ISBN 84-89784-56-6. «Parámetro (en estadística): Cierta cantidad que caracteriza de alguna forma a la población, como su media o su mediana»
  9. Serret Moreno-Gil, Jaime (1998). «4. Parámetros Estadísticos», Procedimientos estadísticos. ESIC, p. 71. ISBN 8473561716. Consultado el 19/04/2009. «En estadística descriptiva tenemos una serie de expresiones (...) que permiten disponer de unos valores numéricos que reflejan el comportamiento global del suceso estadístico, calculados a partir de los datos individuales. Estas expresiones son los parámetros estadísticos»
  10. a b Huff, Darrel (1965). «2. El promedio bien escogido», Cómo mentir con estadísticas. Acapulco: Sagitario.
  11. «Citas de Benjamin Disraeli en Wikiquote». Consultado el 5 de abril de 2009.
  12. «Mentiras, grandes mentiras y estadísticas en la Wikipedia inglesa».
  13. Citas de Bernard Shaw
  14. Los Simpsons, temporada 5], episodio Homer, el vigilante
  15. citado por Calot (1985, pp. 55, 56) y MAD-Eduforma (2006, p. 160)
  16. Romero Villafranca, Rafael; Zúnica Ramajo, Luisa Rosa (2005). «2.6. Parámetros de posición», Métodos estadísticos en Ingeniería. Valencia: Univ. Politéc. Valencia, pp. 39-41. ISBN 8497057279. Consultado el 20 de abril de 2009.
  17. «Medidas de Dispersión». Enciclopedia Microsoft® Encarta® Online. Microsoft Corporation (2009). Consultado el 20 de abril de 2009.
  18. Serret Moreno-Gil, Jaime (1998). «4.3. Parámetros de forma.», Procedimientos estadísticos. ESIC, pp. 81. ISBN 8473561716. Consultado el 20-4-2009.
  19. Ello significa que si se registran edades, por ejemplo, la medida de posición correspondiente también es una edad, está medida en esas mismas unidades y podría ser igual a uno de los datos.
  20. Wackerly, Dennis D; Mendenhall, William; Scheaffer, Richard L. (2002). «1.3. Descripción de un conjunto de mediciones: métodos numéricos», Estadística matemática con aplicaciones, 6ª edición, Cengage Learning Editores, p. 8. ISBN 9706861947. «La medida central que más se usa en estadística es la media aritmética»
  21. Rius Díaz, Francisca (octubre de 1997). «2.3.2 La media», Bioestadística. Métodos y aplicaciones. Málaga: Universidad de Málaga. ISBN 84-7496-653-1. Consultado el 7-4-2009.
  22. Wackerly, Dennis D; Mendenhall, William; Scheaffer, Richard L. (2002). «1.3. Descripción de un conjunto de mediciones: métodos numéricos», Estadística matemática con aplicaciones, 6ª edición, Cengage Learning Editores, p. 8. ISBN 9706861947. «Dos conjuntos de mediciones podrían tener distribuciones de frecuencias muy distintas, pero con la misma media»
  23. Rius Díaz, Francisca. «2.3.6 La moda», Bioestadística. Métodos y aplicaciones.
  24. Santos, María José (abril de 2009) «Retrato robot del alcalde metropolitano» El Correo de Andalucía. Consultado el 7-4-2009.
  25. Serret Moreno-Gil, Jaime (1998). Procedimientos estadísticos. ESIC, pp. 75. ISBN 8473561716. Consultado el 17-4-2009.
  26. Rius Díaz, Francisca. «2.3.4 La mediana», Bioestadística. Métodos y aplicaciones.
  27. Martín Andrés, Antonio; Luna del Castillo, Juan de Dios (2004). Bioestadística para las ciencias de la Salud. Capitel Editores, p. 28. ISBN 8484510182. Consultado el 17-4-2009.
  28. Chaves, Bernardo (2004). «La media geométrica y la media armónica». Bioestadística para postgrado. Universidad Nacional de Colombia. Consultado el 7 de abril de 2009.
  29. Johnson, Robert; Kuby, Patricia (2003). «2.8. El arte del engaño estadístico», Estadística elemental, 3ª edición, Cengage Learning Editores, pp. 94. ISBN 9706862870.
  30. a b Rius Díaz, Francisca. «2.7. Medidas de variabilidad o dispersión», Bioestadística. Métodos y aplicaciones. Consultado el 17-4-2009.
  31. Férnandez Fernández, Santiago; Alejandro Córdoba, José María Cordero Sánchez, Alejandro Córdoba (2002). «4.2. Medidas absolutas», Estadística Descriptiva, 2ª edición, ESIC Editorial, p. 192. ISBN 8473563069.
  32. a b Rius Díaz, Francisca. «2.7.4. Varianza y desviación típica», Bioestadística. Métodos y aplicaciones. Consultado el 7-4-2009.
  33. Wackerly, Dennis D. «3.11. Teorema de Chebyshev», Estadística matemática con aplicaciones, p. 139.
  34. Férnandez Fernández, Santiago. «4.2.3.4. Meda o desviación mediana», Estadística Descriptiva, p. 200.
  35. Férnandez Fernández, Santiago. «4.3. Medidas relativas», Estadística Descriptiva, p. 201.
  36. Férnandez Fernández, Santiago. «4.3. Medidas relativas», Estadística Descriptiva, p. 202.
  37. Sotomayor Velasco, Gabriel; Wisniewski, Piotr Marian (2001). «8.7. Momentos y otras características», Probabilidad y estadística para ingeniería y ciencias. Cengage Learning Editores, p. 196. ISBN 970686136X. Consultado el 7-4-2009.
  38. a b Malléa, Adriana, Adriana; Herrera, Myriam; Ruiz, Ana María (2003). «3. Parámetros estadísticos no convencionales», Estadística en el nivel polimodal. San Juan: effha, p. 67. ISBN 9872084920. Consultado el 17-4-2009.
  39. Llorente Galera, Francisco; Staff, VV; Marín Feria, Susana; Torra Porras, Salvador (2000). «2.6. Medidas de concentración», Principios de estadística descriptiva aplicada a la empresa. Ramón Areces, pp. 53-54. ISBN 8480044276. Consultado el 17-4-2009.
  40. Wackerly, Dennis D. «3.9. Momentos y funciones generadoras de momentos», Estadística matemática con aplicaciones, p. 131.
  41. Casas Sánchez, J.M; Santos Peña, Julián (2002). «2.6. Momentos», Introducción a la estadística para economía, 2 edición, Ramón Areces, p. 95. ISBN 848004523X. «Si los momentos coinciden en dos distribuciones, diremos que son iguales»
  42. Cáceres Hernández, Juan José (2007). «4.1. Variable estadística multidimensional y distribución de frecuencias», Conceptos básicos de Estadística para Ciencias Sociales. Delta Publicaciones, p. 62. ISBN 8496477436.
  43. Arias Rodríguez, Jose Carlos (2004). «Distribuciones bidimensionales». Proyecto Descartes. Madrid: Ministerio de Educación, Política Social y Deporte. Consultado el 7 de abril de 2009.
  44. Rius Díaz, Francisca (octubre de 1997). «3.10.2. Una interpretación geométrica de la covarianza», Bioestadística. Métodos y aplicaciones. Málaga: Universidad de Málaga. ISBN 84-7496-653-1. Consultado el 7-4-2009.
  45. Barón López, Francisco Javier. «Bioestadística» (Vídeo en Flash). Málaga: Universidad de Málaga. Consultado el 18 de abril de 2009.
  46. Casas Sánchez, Jose M.; Manzano Arrondo, Vicente; Zamora Sanz, Ana Isabel; (1997). «2. Estimación puntual», Inferencia Estadística, 2ª, ilustrada edición, Ramón Areces, pp. 89-162. ISBN 848004263X. Consultado el 17-4-2009.
  47. Álvarez Leiva, Juan Antonio (diciembre de 1997). «Medidas de dispersión». Proyecto CICA Thales. Sociedad Andaluza de Educación Matemática "Thales". Consultado el 7-4-2009.

Bibliografía [editar]

Enlaces externos [editar]

Calculadoras de parámetros estadísticos:

  • Las tres medias Calcula la media aritmética, geométrica y armónica de una serie de 80 datos o menos.
  • La calculadora web descriptiva Calcula media, moda, varianza, desviación típica, coeficiente de variación, coeficientes de forma, índice Gini, media armónica.
  • Calculadora estadística Incluye parámetros bidimensionales y otros cálculos de utilidad en probabilidad.

Cursos completos de estadística descriptiva:

MATEMÁTICAS: EL ORDEN. Uno de los significados de orden es la propiedad que emerge en el momento en que varios sistemas abiertos, pero en origen aislados, llegan a interactuar por coincidencia en el espacio y el tiempo, produciendo, mediante sus interacciones naturales, una sinergia que ofrece como resultado una realimentación en el medio, de forma que los elementos usados como materia prima, dotan de capacidad de trabajo a otros sistemas en su estado de materia elaborada. La capacidad de algunos sistemas de recordar el pasado (de tener memoria), produce (en ese sistema) la capacidad de establecer un método organizado y coordinado para repetir el logro alcanzado por selección natural, y acelerar el objetivo a conseguir. En ese proceso, se paga un precio: la pérdida de su individualidad, mayor dependencia de nuevos elementos que pueden existir gracias a una economía más holgada, pero ganando en especialización. Bajo este enfoque, el orden es la organización de las partes para hacer algo funcional y preciso, lo cual implica la presencia de un cauce que establece una transacción de cargas con menor coste y por lo tanto con potencial de desarrollo a una psicodinámica emergente, dando la oportunidad al observador de imputar una finalidad intencional y, como puede deducirse, de una acción inteligente.

Orden

De Wikipedia, la enciclopedia libre

Para otros usos de este término, véase Orden (biología).

Uno de los significados de orden es la propiedad que emerge en el momento en que varios sistemas abiertos, pero en origen aislados, llegan a interactuar por coincidencia en el espacio y el tiempo, produciendo, mediante sus interacciones naturales, una sinergia que ofrece como resultado una realimentación en el medio, de forma que los elementos usados como materia prima, dotan de capacidad de trabajo a otros sistemas en su estado de materia elaborada.2

La capacidad de algunos sistemas de recordar el pasado (de tener memoria), produce (en ese sistema) la capacidad de establecer un método organizado y coordinado para repetir el logro alcanzado por selección natural, y acelerar el objetivo a conseguir. En ese proceso, se paga un precio: la pérdida de su individualidad, mayor dependencia de nuevos elementos que pueden existir gracias a una economía más holgada, pero ganando en especialización. Bajo este enfoque, el orden es la organización de las partes para hacer algo funcional y preciso, lo cual implica la presencia de un cauce que establece una transacción de cargas con menor coste y por lo tanto con potencial de desarrollo a una psicodinámica emergente, dando la oportunidad al observador de imputar una finalidad intencional y, como puede deducirse, de una acción inteligente.

Contenido

[ocultar]

Ámbitos de orden [editar]

En el ámbito del orden social, por ejemplo, el orden se remite a la forma en la cual las comunidades se organizan. Así, existen las sociedades jerárquicas, que se basan en una organización social rígida y piramidal, o en sus antípodas las sociedades anarquistas, cuyo orden es mucho más flexible y requiere, en consecuencia, fuertes valores de conducta, como el respeto por la libertad del otro, la igualdad y la responsabilidad por los actos propios. En las diferentes formas de organización social, los factores determinantes son la cultura y los fenómenos particulares que hacen a la naturaleza de cada una de ellas, y no necesariamente las leyes escritas, las cuales tan sólo reflejan las leyes sociales creadas por la comunidad, o alguna de sus partes.

Otros puntos de vista [editar]

Bajo otro punto de vista, el orden no es únicamente una acción inteligente, sino todo aquello que funciona de una determinada manera. Así, aunque quien observa el orden y en última instancia lo define es un individuo inteligente, el orden se encuentra naturalmente en la disposición de sucesos u otros conceptos observables. Aquello que denominamos tiempo, por ejemplo, presenta un orden natural para los sucesos y, guiados al menos por los conocimientos concretos del ser humano hasta el día de hoy, el orden cronológico es unidireccional e invariable.

Los antonimos de orden pueden ser, según el contexto en que sea utilizado, desorganización, desorden y caos.

De la misma forma, existen órdenes de órdenes, que solemos llamar estructuras. Existen multitud de estructuras en los más diversos campos tanto de la naturaleza como de la vida social.

Utilizado en femenino, una orden es un imperativo.

Criterios de ordenación [editar]

Significados en diferentes ciencias [editar]

Significados matemáticos [editar]

Teoría de conjuntos [editar]

Algoritmos [editar]

Otros usos [editar]

Significados sociales [editar]

Hay gran número de honores y condecoraciones en gran número de países que llevan el nombre de Orden de....

Orden como imperativo [editar]

Una orden es una instrucción que se debe cumplir imperativamente.

Orden en el ejército [editar]

En el ejército y la guerra, orden (ejército) es un mandato imperativo:

Orden en el cristianismo [editar]

Obras artísticas y literarias [editar]

Nombres de lugares (topónimos) [editar]

Agrupaciones políticas [editar]

Véase también [editar]


MATEMÁTICAS: TEORÍA DEL ORDEN. SIGNO + O -, ESTA TODO DESORDENADO: ¿CÓMO SE ORDENA? EL SUPERIOR SUBORDINADO AL INFERIOR? SIGNOS ( . + - X) LOS CUATRO ELEMENTOS MÁS EL QUINTO (LA QUINTAESENCIA). ¿LA NATURALEZA ES LO MÁS PURO? ¿ES LO MÁS COTIZADO? ¿TIENE UN PRECIO MUY ALTO? SU VALOR PECUNIARIO, LO SABIDO, ADMITIDO COMUNMENTE, LO AUTORIZADO POR EL USO O LA COSTUMBRE, EL MOVIMIENTO DE LAS AGUAS, LO DETERMINADO, EL MOVIMIENTO, EL AGUA, LA SATÍRICA, EL ORO Y LA LUZ (LA ILUSTRACIÓN, LA CULTURA) QUE HACE QUE BRILLE TODO LO BUENO... La teoría del orden es una rama de la matemática que estudia varias clases de relaciones binarias que capturan la noción intuitiva del orden matemático. Este artículo da una introducción detallada a este campo e incluye algunas de las definiciones más básicas. Para una rápida búsqueda de un término orden teórico, hay también un glosario de teoría del orden. Una lista de asuntos sobre orden recoge los artículos que existen en relación a esta teoría del orden.

Teoría del orden

De Wikipedia, la enciclopedia libre

La teoría del orden es una rama de la matemática que estudia varias clases de relaciones binarias que capturan la noción intuitiva del orden matemático. Este artículo da una introducción detallada a este campo e incluye algunas de las definiciones más básicas. Para una rápida búsqueda de un término orden teórico, hay también un glosario de teoría del orden. Una lista de asuntos sobre orden recoge los artículos que existen en relación a esta teoría del orden.

Contenido

[ocultar]

Trasfondo y motivación [editar]

El orden aparece por todas partes - por lo menos, si se trata de matemática y áreas relacionadas tales como la informática. El primer orden que uno típicamente encuentra en la educación matemática de la escuela primaria es el orden ≤ de los números naturales. Este concepto intuitivo es fácilmente extendido a otros conjuntos de números, tal como los enteros y reales. De hecho la idea de ser mayor o menor que otro número es una de las intuiciones básicas de los sistemas de numeración en general (que uno generalmente se interesa también en la diferencia real de dos números, que no viene dada por el orden). Otro ejemplo popular de un orden es el orden lexicográfico de las palabras en un diccionario.

Los tipos antedichos de orden tienen una propiedad especial: cada elemento se puede comparar con cualquier otro elemento, es decir es o mayor, o menor, o igual. Sin embargo, esto no siempre es un requisito deseable. Un ejemplo bien conocido es el orden de los subconjuntos de un conjunto. Si un conjunto contiene los elementos de cierto otro conjunto, entonces se puede decir que es menor o igual. Con todo, hay conjuntos que pueden no ser comparables de este modo, puesto que cada uno puede contener algún elemento que no esté presente en el otro. Por lo tanto, inclusión de subconjuntos es un orden parcial, en comparación con los órdenes totales dados antes.

Alentadas por los amplios usos prácticos de los órdenes, se pueden definir numerosas clases especiales de conjuntos ordenados, algunas de las cuales han llegado a ser campos matemáticos por sí mismos. Además, la teoría del orden no se restringe a las varias clases de relaciones de orden, sino que también considera funciones apropiadas entre ellas. Un ejemplo simple de una propiedad orden teórica viene del análisis donde encontramos con frecuencia a las funciones monótonas.

Introducción a las definiciones básicas [editar]

Esta sección tiene como objetivo dar una primera guía al reino de los conjuntos ordenados. Está dirigida al lector que tiene un conocimiento básico teoría de conjuntos y aritmética y que sabe qué es una relación binaria, pero que no está familiarizado, hasta ahora, con consideraciones teóricas sobre orden.

Conjuntos parcialmente ordenados [editar]

Como ya se hizo alusión arriba, un orden es una relación binaria especial. Por lo tanto consideremos algún conjunto P y una relación binaria ≤ en P. Entonces ≤ es un orden parcial si es reflexiva, antisimétrica, y transitiva, es decir, para todo a, b y c en P, tenemos que:

aa (reflexividad) si ab y bc entonces ac (transitividad) si ab y ba entonces a = b, (antisimetría).

Un conjunto con un orden parcial se llama conjunto parcialmente ordenado, o, en breve, poset (del inglés partially ordered set). El término conjunto ordenado a veces también se utiliza para los posets, mientras esté claro del contexto que no se quiere significar ninguna otra clase de órdenes. Comprobando esta propiedad, se ve inmediatamente que los bien conocidos órdenes de los naturales, enteros, racionales y reales son todos órdenes en el antedicho sentido. Sin embargo, tienen la propiedad adicional de ser total, es decir, para todo a, b en X

ab o ba (totalidad)

este orden se puede también llamar orden lineal o cadena. mientras que muchos órdenes clásicos son lineales, el orden entre subconjuntos de un conjunto proporciona un ejemplo donde éste no es el caso. De hecho, muchas propiedades avanzadas de los posets son interesantes principalmente para un orden no lineal.

Visualizando órdenes [editar]

Antes de proceder con más ejemplos y definiciones, será provechoso poder exhibir un orden de una manera gráfica conveniente, para proporcionar un "cuadro" que uno pueda tener en mente (o en papel) cuando se intente acceder a conceptos más abstractos. Para este propósito se han introducidos los, así llamados, diagramas de Hasse. Estos son grafos donde los vértices son los elementos del poset y la relación de orden está indicada por las aristas y la posición relativa de los vértices. Los órdenes se dibujan de abajo hacia arriba: si un elemento x es menor que y entonces existe una trayectoria de x hasta y que se dirige hacia arriba. A menudo es necesario que la conexión entre puntos se intersequen, pero los puntos nunca deben ser situados en conexión directa entre otros dos puntos.

Aún los conjuntos infinitos pueden a veces ser ilustrados por diagramas similares, usando puntos suspensivos (...) después de dibujar un suborden finito que sea lo suficientemente instructivo. Esto funciona bien para los números naturales, pero falla para los reales, donde no existe el inmediato sucesor. Sin embargo, frecuentemente se obtiene una intuición relacionada con diagramas de este tipo.

Todos los órdenes antedichos son muy comunes en matemática, sin embargo hay también ejemplos que uno no considera a menudo como órdenes. Por ejemplo, la relación de identidad "=" en un conjunto es un orden parcial. Dentro de este orden, cualesquiera dos (i.e. distintos) elementos son incomparables. Es también la única relación que es un orden parcial y una relación de equivalencia. El diagrama de Hasse de tal orden discreto es solamente una colección de puntos etiquetados, sin ninguna arista entre ellos.

Otro ejemplo viene dado por la relación de divisibilidad "|". Para dos números naturales n y m, escribimos n|m si n divide a m sin resto. Uno ve fácilmente que esto da realmente un orden parcial. Un ejercicio instructivo es dibujar el diagrama de Hasse para el conjunto de los números naturales que son menores o iguales que, digamos, 13, ordenados por |.

Elementos especiales dentro de un orden [editar]

En un conjunto parcialmente ordenado hay algunos elementos que desempeñan un papel especial. El ejemplo más básico está dado por el mínimo de un poset. Por ejemplo, 0 es el mínimo de los números naturales y el conjunto vacío es el mínimo bajo el orden de subconjuntos. Formalmente, esto se puede describir por la propiedad:

0 ≤ a, para todo elemento a del conjunto ordenado.

Es frecuente encontrar la notación 0 para el mínimo, incluso cuando no se refiera a números. Sin embargo, en un orden de un conjunto numérico, esta notación puede ser inadecuada o ambigua, puesto que el número 0 no siempre es el mínimo. Un ejemplo es el antedicho orden de divisibilidad |, donde 1 es el mínimo puesto que divide a todo el resto de números. Por otra parte, 0 es un número que se divide por todo el resto de números. ¡Por lo tanto es el máximo del orden! Otros términos frecuentes para estos elementos son fondo y tapa o cero y uno. Pueden no existir los elementos "mínimo" o "máximo", como demuestra el ejemplo de los números reales. Por otra parte, si existen son siempre únicos. En contraste, consideremos la relación de divisibilidad | en el conjunto {2, 3, 4, 5, 6}. Aunque este conjunto no tiene ni tapa ni fondo, los elementos 2, 3, y 5 no tienen ningún elemento debajo, mientras que 4, 5, y 6 no tienen ninguno otro número arriba. Tales elementos se llaman minimales y maximales, respectivamente. Formalmente, un elemento m es minimal si:

am implica a = m, para todo elemento a.

Intercambiando ≤ con ≥ obtenemos la definición de maximal. Como el ejemplo demuestra, puede haber muchos elementos minimales o maximales y algún elemento puede ser maximal y minimal (e.g. 5 arriba). Sin embargo, si hay un elemento mínimo, entonces es el único elemento minimal del orden. (Si se sigue estrictamente la definición dada. Lamentablemente hay una tradición matemática "a contrario": considerar los minimales y maximales en el conjunto despojado de su máximo y su mínimo, si los hubiere. Esto debe recordarse. N.T.). Una vez más, en los posets no siempre hay infinitos elementos maximales - el conjunto de todos los subconjuntos finitos en un conjunto infinito dado, ordenado por inclusión de subconjuntos, proporciona uno, entre muchos, contraejemplo. Una herramienta importante para asegurar la existencia de elementos maximales bajo ciertas condiciones es el Lema de Zorn.

Los subconjuntos de un conjunto parcialmente ordenado heredan el orden. Ya aplicamos esto al considerar el subconjunto {2, 3, 4, 5, 6} de los números naturales con el orden de divisibilidad inducido. Hay también elementos de un poset que son especiales con respecto a cierto subconjunto del orden. Esto conduce a la definición de cota superior. Dado un subconjunto S de cierto poset P, una cota superior de S es un elemento b de P que está sobre todo elemento de S. Formalmente, esto significa que

sb, para todo s en S.

Cota inferior se define invirtiendo el orden. Por ejemplo, -5 es una cota inferior de los números naturales como subconjunto de los enteros. Dado un conjunto de conjuntos , una cota superior para éstos conjuntos viene dado por su unión. De hecho, esta cota superior es muy especial: es el más pequeño conjunto que contiene todos los conjuntos dados. Por lo tanto, encontramos la menor cota superior de un conjunto de conjuntos. Este concepto se llama también supremo y para un conjunto S se escribe sup S o VS para su menor cota superior. Inversamente, la mayor cota inferior se la conoce como ínfimo y se denota inf S o ^S. Este concepto desempeña un papel importante en muchos usos de la teoría del orden. Para dos elementos x y y, uno también escribe x v y y x ^ y para sup{x, y} e inf{x, y}, respectivamente.

Usando Wikipedia TeX markup, uno puede también escribir vee y wedge, así como símbolos grandes bigvee y bigwedge. Observe, sin embargo, que todos esos símbolos pueden no tener símbolo de tamaño correspondiente al de la fuente del texto estándar y, por tanto, se prefiere utilizarlos en líneas adicionales. Muchos de los navegadores de hoy son incapaces de representar ∨ para v y ∧ para ^ en algunas plataformas, y por lo tanto se evita aquí.

Considere otro ejemplo en la relación | para los números naturales. La menor cota superior de dos números es el menor número que es múltiplo de ambos, es decir el mínimo común múltiplo. Mayor cota inferior es, alternativamente, el máximo común divisor.

Dualidad [editar]

En las anteriores definiciones, a menudo, observamos que un concepto puede ser definido por invertir simplemente el orden en una definición anterior. Este es el caso para "menor" y "mayor", para "mínimo" y "máximo", para "cota superior " y "cota inferior", etcétera. Esto es una situación general en teoría de orden: Un orden dado se puede invertir con solamente intercambiar su dirección, pictóricamente dar vuelta el diagrama de Hasse de arriba para abajo. Esto da el, así llamado, orden dual, inverso u opuesto.

Cada definición orden teórica tiene su dual: es la noción que se obtiene al aplicar la definición al orden inverso. Dada la simetría de todos los conceptos, esta operación preserva los teoremas del orden parcial. Para un resultado matemático dado, se puede, simplemente, invertir el orden y substituir todo definición por su dual y obtener otro teorema válido. Esto es importante y útil, puesto que uno obtiene dos teoremas al precio de uno. Más detalle y ejemplos se pueden encontrar en el artículo sobre dualidad en teoría de orden.

Construyendo nuevos órdenes [editar]

Hay muchas maneras de construir órdenes, o para combinar órdenes en uno nuevo. El orden dual es un primer ejemplo. Otra importante construcción es el producto cartesiano de dos conjuntos parcialmente ordenados, junto con el orden producto en pares de elementos. Esto se define por los órdenes originales haciendo (a, x) ≤ (b, y) si ab y xy. La unión disjunta de dos posets es otra típica construcción, donde el orden es exactamente la unión de los órdenes originales.

Como en el caso del orden usual de números, cada orden parcial ≤ da lugar a un orden estricto <, al definir a < b si ab y no ba. Esta transformación puede ser invertida haciendo ab si a < b o a = b.

Funciones entre órdenes [editar]

Es razonable requerir que las funciones entre conjuntos parcialmente ordenados tengan ciertas propiedades adicionales, que se relacionen con la relación de orden de los dos conjuntos. La condición más fundamental que se presenta en este contexto es la monotonía. Un función f de un poset P a un poset Q es monótona u orden preservante, si ab en P implica f(a) ≤ f(b) en Q. La conversa de esta implicación conduce a una función que es orden reflectante, es decir una función f como arriba para la cuál f(a) ≤ f(b) implica ab. Por otra parte, una función puede también ser orden inversora o antítona, si ab implica f(a) ≥ f(b).

Una inmersión de orden es una función f entre órdenes que es orden preservante y orden reflectante. Ejemplos para esta definición se encuentran fácilmente. Por ejemplo, función que mapea un número natural en su sucesor es claramente monótona con respecto al orden natural. Cualquier función de un orden discreto, es decir un conjunto ordenado por el orden identidad "=", es también monótono. Mapear cada número natural al correspondiente número real da un ejemplo para una inmersión de orden. El complemento conjuntista en un conjunto de partes es un ejemplo de una función antítona.

Una importante pregunta es cuándo dos órdenes son "esencialmente iguales", es decir cuándo son lo mismo salvo retitular elementos. Un isomorfismo de orden es una función que define tal renombrar. Un isomorfismo de orden es una función monótona biyectiva que tiene una inversa monótona. Esto es equivalente a una inmersión de orden sobreyectiva. Por lo tanto, la imagen f(P) de una inmersión de orden es siempre isomorfa a P, lo que justifica el término "inmersión".

Un más elaborado tipo de función es la, así llamada, conexión de Galois. Conexiones de Galois monótonas pueden ser vistas como una generalización de los isomorfismos de orden, puesto que están constituidas por dos funciones en inversa dirección, que no son inversas absolutas una de la otra, pero tienen cercana relación.

Otro tipo especial de endofunción en un poset es el operador de clausura, que no solamente es monotónico, sino también idempotente, es decir. f(x) = f(f(x)), y extensivo, es decir. xf(x). éste tiene mucho uso en todo clase de "clausuras" que aparecen en matemática.

Además de compatible con la mera relación de orden, una función entre posets puede también comportarse bien con respecto a elementos especiales y construcciones. Por ejemplo, cuando se habla de posets con menor elemento, parece razonable considerar solamente una función monotónica que preserve este elemento, es decir que mapee menor elemento en menor elemento. Si el ínfimo binario ^ existe, entonces una propiedad razonable puede ser requerir que f(x^y) = f(x) ^ f(y), para todo x y y. Todas estas propiedades, y de hecho muchas más, pueden ser agrupadas bajo la etiqueta función que preserva límite.

Finalmente, uno puede invertir la visión, cambiar funciones de orden a orden de funciones. De hecho, las funciones entre dos posets P y Q pueden ser ordenadas vía el orden punto a punto. Para dos funciones f y g, se tiene fg si f(x) ≤ g(x) para todo elemento x en P. Esto ocurrirá por ejemplo en teoría de dominios, donde los espacios funcionales desempeñan un importante papel.

Tipos especiales de orden [editar]

Muchas de las estructuras que son estudiadas en teoría de orden emplean relación de orden con propiedades adicionales. De hecho, algunas relaciones que no son de orden parcial son de especial interés. Principalmente, el concepto de un preorden tiene que ser mencionado. Un preorden es unoarelación que esreflexiva y transitiva, pero no necesariamente antisimétrica. Cada preorden induce una relación de equivalencia entre elementos, donde a es equivalente a b, si ab y ab. Los preórdenes pueden ser convertidos en órdenes identificando todo elemento equivalente con respecto a esta relación.

Tipos básicos de órdenes especiales ya se dieron en forma de orden total. Una simple pero útil propiedad adicional conduce al, así llamado, buen orden, dentro del que todo subconjunto no vacío tiene un menor elemento (también denominado primer elemento). Muchos otros tipos de orden se presentan cuando se garantiza la existencia de ínfimos y supremos de ciertos conjuntos. Centrándose en este aspecto, generalmente referido como completitud de órdenes, se obtiene:

  • Posets acotados, es decir posets con menor y mayor elementos (que son precisamente supremo e ínfimo del conjunto vacío),
  • reticulados, en que cada conjunto finito no vacío tiene supremo e ínfimo,

Sin embargo, uno puede ir incluso más allá: si todo ínfimo finito no vacío existe, entonces ^ puede ser visto como una operación binaria total en el sentido del álgebra universal. Por lo tanto, en un reticulado, dos operaciones ^ y v están disponibles, y se puede definir nuevas propiedades dando identidades, tal como

x ^ (y v z) = (x ^ y) v (x ^ z), para todo x, y, y z.

Este condición se llama distributividad y dar lugar a los reticulados distributivos. Hay algunas otras importantes leyes de distributividad que son discutidas en el artículo sobre la distributividad en teorías de orden. Algunas estructuras de orden adicionales que son a menudo especificadas vía operación algebraica y definiendo identidades son

en que ambas introducen una nueva operación ~ llamada negación. Ambas estructuras desempeñan un papel en lógica matemática y especialmente las álgebras de Boole tienen importante uso en informática. Finalmente, varias estructuras en matemática combinan orden con operaciones aún más algebraicas, como el caso de quantales, que permite la definición de una operación de adición.

Existen muchas otras importantes propiedades de los posets. Por ejemplo, un poset es localmente finito si cada intervalo cerrado [a, b] en él es finito. Los posets localmente finitos dan lugar a álgebras de incidencia que alternadamente pueden ser utilizadas para definir característica de Euler de posets finitos acotados.

Subconjuntos de conjuntos ordenados [editar]

En un conjunto ordenado, uno puede definir muchos tipos especiales de subconjuntos basados en el orden dado. Un ejemplo simple son los conjuntos superiores, es decir conjuntos que contienen todo elemento que esté sobre ellos en el orden. Formalmente, la clausura superior de un conjunto S en un poset P viene dado por el conjunto {x en P| hay algún y en S con yx}. Un conjunto que es igual a su clausura superior se llama un conjunto superior. conjunto inferior es definido dualmente.

Subconjuntos inferiores más complicados son los ideales, que tienen la propiedad adicional que cada dos de sus elementos tiene cota superior dentro del ideal. Su noción dual son los filtros. Un concepto relacionado es el de subconjunto dirigido, que como un ideal contiene cota superior de un subconjunto finito, pero no tiene porque ser un conjunto inferior. Además, a menudo se generaliza a conjuntos preordenados.

Un subconjunto que es - como sub-poset - linealmente ordenado, se llama una cadena. La noción opuesta, anticadena, es un subconjunto que no contiene ningún par de elementos comparables, es decir que es un orden discreto.

Áreas matemáticas relacionadas [editar]

aunque la mayoría de las áreas matemáticas usan orden de uno u otra manera, también hay algunas teorías que tienen una relación que va mucho más allá de la mera utilización. Junto con su importante punto de contacto con la teoría de orden, algunas serán presentadas abajo.

Álgebra universal [editar]

Según lo ya mencionado, los métodos y el formalismo del álgebra universal son una herramienta importante para muchas consideraciones orden teóricas. Aparte de formalizar órdenes en términos de estructuras algebraicas que satisfacen ciertas identidades, se pueden también establecer otras conexiones con el álgebra. Un ejemplo es la correspondencia entre las álgebras de Boole y los anillos de Boole. Otros aspectos tienen que ver con la existencia de construcciones libres, tal como los reticulados libres basados en un conjunto de generadores. Además, los operadores de clausura son importantes en el estudio del álgebra universal.

Topología [editar]

En topología el orden desempeña un muy prominente papel. De hecho, el conjunto de los abiertos proporciona un clásico ejemplo de un reticulado completo, más exactamente un álgebra de Heyting completa (o "marco" o "locale"). Los filtros y las redes son nociones relacionadas con la teoría de orden y el operador clausura conjuntista puede ser utilizado para definir una topología. Más allá de esta relación, la topología de puede mirar únicamente en términos del reticulado de conjuntos abiertos, que conduce al estudio de la topología sin puntos. Además, un preorden natural de elementos del conjunto subyacente de una topología viene dada por el, así llamado, orden de especialización, que es realmente un orden parcial si la topología es T0.

Inversamente, en teoría de orden, uno a menudo hace uso de resultados topológicos. Hay varias maneras de definir subconjuntos de un orden que pueden ser considerados como conjunto abiertos de una topología. Especialmente, es interesante considerar topologías en un poset (X, ≤) que reobtiene ≤ como su orden de especialización. La más fina de tales topologías es la topología de Alexandrov, dada al tomar todos los conjuntos superiores ("upper") como abiertos. Inversamente, la más gruesa topología que induce el orden de especialización es la topología superior, que tiene los complementos de los ideales principales (es decir conjuntos de la forma { y en X|yx} para cada x) como una subbase. Adicionalmente, una topología con orden de especialización ≤ puede ser orden consistente, significando que sus conjuntos abiertos son "inaccesibles por supremos dirigidos" (con respecto ≤). La topología más fina de un orden consistente es la topología de Scott, que es más gruesa que la topología de Alexandrov. Una tercera topología importante en esta línea es la topología de Lawson. Hay cercanas conexiones entre estas topologías y los conceptos de la teoría de orden. Por ejemplo, una función preserva supremos dirigidos si y sólo si es continuo con respecto a la topología de Scott (por este razón esta propiedad orden teórica es también llamada continuidad de Scott).

Teoría de categorías [editar]

La visualización de órdenes con diagramas de Hasse tiene una generalización directa: en vez exhibir elemento menores bajo los mayores, la dirección del orden se puede también representar dando la dirección de las aristas del grafo. De esta manera, cada orden se ve como equivalente a un grafo dirigido acíclico, donde los nodos son los elementos del poset y hay una trayectoria dirigida de a a b si y solamente si ab. Eliminando el requisito acíclico, uno puede también obtener todos los preórdenes.

Cuando es equipado con todas las aristas transitivas, estos grafos son solamente categorías especiales, donde los elementos son los objetos y cada conjunto de morfismos entre dos elementos es a lo sumo un singletón. Funciones entre órdenes se convierten en funtores entre categorías. Interesantemente, muchas ideas de la teoría de orden son simplemente pequeñas versiones de los conceptos de la teoría de las categorías. Por ejemplo, un ínfimo es precisamente un producto categórico. Más en general, uno puede subsumir supremos e ínfimos bajo la noción abstracta de un límite categórico (o colímite, respectivamente). Otro lugar en donde las ideas categoriales surgen es el concepto de una conexión de Galois (monótona), que es precisamente igual a un par de funtores adjuntos.

Pero la teoría de las categorías también tiene un impacto en la teoría de orden de mayor escala. Clases de posets con funciones apropiadas según lo discutido arriba forman interesantes categorías. A menudo uno puede también establecer construcción de órdenes, como el orden producto, en término de categoría. Otras intuiciones resultan cuando categorías de orden resultan equivalentes categóricas a otra categoría, por ejemplo de espacios topológicos. Este línea de investigación conduce a varios teoremas de representación, a menudo recogidos bajo la etiqueta dualidad de Stone.

Esquema de temas relacionados [editar]

Teoría del orden
Bien ordenado
Orden total
Parcialmente ordenado
Preordenado
Relación reflexiva
Relación transitiva
Relación antisimétrica
Relación total
Orden bien fundamentado

Referencias [editar]

  • G. Gierz, K. H. Hofmann, K. Keimel, J. D. Lawson, M. Mislove, and D. S. Scott, Continuous Lattices and Domains, In Encyclopedia of Mathematics and its Applications, Vol. 93, Cambridge University Press, 2003. ISBN 0-521-80338-1

MATEMÁTICAS, FILOSOFÍA: CAUSAS DE LAS COSAS. PREGUNTAS CAUSALES: ¿HACE USTED LO QUE LE APETECE? ¿ASPIRA CON VEHEMENCIA AL CONOCIMIENTO O DISFRUTE DE UNA COSA? ¿CUÁL ES LA CAUSA DE SUS MALES? CAUSA, PRINCIPIO Y UNO, EXPRESIONES (¡FAINO! DEL GALLEGO) EXPRESIONES CAUSALES: ¿QUE PASÓ? ¿QUÉ ES LO QUE NO LE GUSTA? ¿LE GUSTA CONFUNDIR? ¿POR QUÉ? LES GUSTA SABER QUE SE DESEA Y HACER LO CONTRARIO, ¿LE GUSTA LA CAUSALIDAD? La causalidad en filosofía parte del hecho de que todo suceso se origina por una causa, origen o principio.

Causa

De Wikipedia, la enciclopedia libre

(...)

Para otros usos de este término, véase Causa (desambiguación).

Dados dos eventos A y B, A es causa de B si se cumplen una serie de condiciones lógicas, dos sucesos importantes.

  • La ocurrencia de A va acompañada de la ocurrencia de B, o si examinamos, representamos numéricamente el grado en que ocurren A y B, entonces encontramos una correlación positiva entre ambas variables.
  • La no-ocurrencia de B implica que tampoco podrá hallarse la ocurrencia de A, aunque la ocurrencia de B no tiene por qué estar ligada necesariamente a la concurrencia de A.

Cuando dos eventos A y B cumplen las dos condiciones anteriores decimos que existe una relación causal entre ambos: en concreto "A es causa de B" o equivalentemente "B es un efecto de A".

La idea de causa intuitivamente surge del intento de explicarnos lo que ocurre a nuestro alrededor mediante un determinado esquema lógico subyacente que nos permite relacionar unas cosas con otras mediante conexiones necesarias. Esta capacidad para establecer conexiones causales es una habilidad cognitiva básica de primates superiores, algunos mamíferos superiores e incluso algunos invertebrados como el pulpo de mar.

Esta habilidad cognitiva básica es importante precisamente porque existe cierta evidencia empírica de que que siempre que se dan las mismas circunstancias como causas, se producirá siempre el mismo efecto. Eso es lo que entendemos por principio de causalidad que según puede formular de un modo un tanto naïf como "todo lo que sucede en el mundo, en la Naturaleza tiene una causa" (también se suele parafrasear una proposición de Aristóteles: "Todo lo que se mueve, se mueve por otro").


Contenido

[ocultar]

Causa en Ciencias naturales y Ciencias sociales [editar]

La idea de causa aparece en ciencias naturales y sociales en varios contextos:

  1. En física donde el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  2. En estadística donde es analizado por la estadística inferencial.
  3. En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas (por tanto en general se trata del mismo concepto manejado en el contexto 2).
  4. En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimos físico simple (caso 1), la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

Causa en filosofía [editar]

La idea de "causa" ha suscitado un buen número de debates filosóficos, desde los primeros intentos filosóficos. Aristóteles concluye el libro de los Segundos analiticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica "nada hay en el intelecto que no haya estado antes en los sentidos" (Nihil est in intellectu, quod prius non fuerit in sensu). Al mantener que "conocer la naturaleza de una cosa es conocer, ¿por qué es?" y que "poseemos conocimiento científico de una cosa sólo cuando conocemos su causa".

Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración: la forma definible; un antecedente que necesita un consecuente; la causa eficiente; la causa final.[1]

En la filosofía occidental, el concepto de causa como "conexión necesaria" fue criticado por el filósofo David Hume.

En las relaciones causales encontramos que:

  • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
  • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
  • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.
  • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. De la confusión de ambos se ha seguido tradicionalmente la demostración de la existencia de Dios a partir del principio de causalidad. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
  • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.

***La palabra efecto, proviene del latín effectus y tiene una gran cantidad de significados, ligados muchos de ellos a la experimentación científica, porque su significado principal indica que efecto es aquello que se consigue por virtud de una causa o el fin para que se hace una cosa. La relación que existe entre causa y efecto se llama causalidad. La causalidad es objeto de profundos análisis en el campo filosófico.

Referencias [editar]

  1. Vulgarmente causa material, causa formal, causa eficiente y causa final

Véase también [editar]

MATEMÁTICAS: REDUCCIÓN AL ABSURDO. Reducción al absurdo (del latín Reductio ad absurdum) es un método de demostración (formalizado y a menudo usado por Aristóteles como un argumento lógico) en el que suponemos una hipótesis y obtenemos un resultado absurdo, por lo que concluimos que la hipótesis de partida ha de ser falsa. Este método es también conocido como prueba por contradicción o prueba ad absurdum. Parte de la base es el cumplimiento de la ley de exclusión de intermedios: una afirmación que no puede ser falsa, ha de ser consecuentemente verdadera.

Reducción al absurdo

De Wikipedia, la enciclopedia libre

HISTORIA DE LA BANDERA ANARQUISTA

HISTORIA DE LA BANDERA NEGRA DEL ANARQUISMO.

Bandera es un pedazo de textil usado como la insignia de un país o asociación. Con el pasar de los siglos, las corporaciones, clubes, entidades religiosas, militares, políticas y naciones empezaron a tener sus pabellones con los dibujos y colores previamente resueltos. Las uniones obreras también debatieron sus emblemas, aceptando en las asambleas sus banderas para producir una representación más grande de la clase.

Los anarquistas nunca se dieron al trabajo de discutir en congreso y aprobar su "Pabellón", los colores mas apropiados para expresar su filosofía de vida.

Así como la palabra Anarquía adoptada por Proudhon, ya se uso por el siglo XIII (el rey Philipe de Bel la usaba para llamar a los desobedientes que se opusieron a el) la bandera negra de los anarquistas también ya había sido usada para demostrar el disgusto, la tristeza, la revuelta, el procedimiento de los políticos Parisinos.

Izada por primera vez en la cima de la Cámara de Paris, en Julio de 1830 (las personas con la bandera negra) ellos deseaban expresar su rechazo al capitalismo, a los políticos, al Estado.

El eco producido era inmediato y los albañiles de Reims escribieron en este emblema "trabajo o muerte".

El año siguiente, los Cannuts (obreros del textil) de Lyon, protestaron contra los patrones que solo les pagaban 20 patacos por 16 horas de trabajo, en estado de revuelta ellos extendieron la bandera negra con el emblema "vivir trabajando o morir combatiendo". El 21 de Noviembre del mismo año los teclones volvieron a las calles de Lyon y fueron masacrados, pero no se asustaron, al contrario, incluyeron en la bandera un cráneo.

En la insurrección de Dresde, Bakunin asió la bandera negra, y Louise Michel, en Clamart.

En el año 1871, los comunistas usaron la bandera roja durante la revolución que dio origen a la Comuna de Paris, pero Jules Valtes propuso que se cambiase por la bandera negra, por ser "más radical y triste". Louise Michel apoyo y alguna vez defendió la idea de la bandera negra, y en 1882 haciendo los discursos en el primer cumpleaños de la Comuna dijo: "¡No mas banderas rojas pintadas en la sangre de nuestros soldados! Yo ondeare la bandera negra que toma el luto de nuestros muertos y nuestros dolores."

Louise Michel fue quien mas influencio la adopción de este emblema, enrollando la bandera negra en su cuerpo.

Pero fue en 1883 cuando Francia vivió la intensa agitación, fue que el anarquismo adopto la bandera negra definitivamente.

Ya, por nuestro siglo, o más exactamente, en el curso de la revolución rusa de 1917, Néstor Makhno, anarquista y revolucionario ucraniano con un combativo ejército popular también llevo la bandera negra con un cráneo.

En los años de 1918 a 1922, Makhno y sus compañeros asieron la misma bandera en defensa de las comunas libertarias ucranianas, destruidas por el ejército rojo, ordenado desde Moscú por Trotzky y Lenin, los sepultureros de la revolución junto a Zinoviev y Stalin.

Casi dos décadas después en la revolución social española, las diferentes Comunas libertarias entre ellas la de Durruti, asiaron la bandera negra con el pabellón anarquista.

Pero la bandera negra produjo el impacto más grande cuando se ondeo en mayo de 1968, en Paris, sobre las barricadas de adoquines levantadas para enfrentarse al poder y al gobierno.

Hace más de un siglo que la bandera negra ondeo por primera vez en la Torre de la Cámara de Paris, exactamente cuando el mundo intelectual, revolucionario y obrero regresaron sus miradas nuevamente a la capital de Francia. Una vez más Paris fue la sede de una gran convulsión social, con la bandera negra como pabellón. Más de 35 años nos separan del Mayo Francés y la bandera negra ondea desafiante a todo poder y opresión, de Paris a Seattle, de Praga a Niza. Los anarquistas no ven en esa bandera más que un símbolo que no involucra conquista u opresión. Porque la bandera negra es la negación de todas las demás, el viejo grito de: "Mi familia es la humanidad y mi patria el mundo".


HISTORIA DE LA BANDERA ROJA Y NEGRA.

La bandera roja y negra del anarcosindicalismo surge como la unión en una misma tela de la bandera negra (anarquista) y la bandera roja (sindicalista).

Hoy la podemos ver normalmente cosida en diagonal, sin embargo las primeras banderas rojinegras eran horizontales. La Confederación Sindical Solidaridad Obrera, escisión de la CGT (España), recuperó la bandera rojinegra horizontal como enseña propia.

BANDERA DE GUATEMALA:

Bandera de Guatemala

De Wikipedia, la enciclopedia libre

La bandera de Guatemala fue creada por el Decreto Ejecutivo del 10 de agosto de 1871, siendo presidente de la República el general Miguel García Granados.

FIAV 011011.svg Bandera nacional (ratio 5:8)
FIAV 100100.svg Bandera y pabellón civil (ratio 5:8)

Posee dos colores: el azul cielo y el blanco. La franja vertical blanca entre las dos celestes representa el hecho de que el país se encuentra entre el océano Pacífico al Oeste y el mar Caribe al Este. En su centro aparece el Escudo Nacional. El color blanco también representa la pureza, la integridad, la fe, la obediencia, la firmeza, la vigilancia, la paz y la nación. El color azul simboliza la justicia, la lealtad, la dulzura, la fortaleza, el cielo guatemalteco y los dos mares citados que bañan las costas del este y oeste del país, respectivamente, al igual que las de Centroamérica.

El diseño está basado en la bandera de las Provincias Unidas del Centro de América, aunque en esta última las franjas son horizontales, y las franjas exteriores son azules, no celestes. Las banderas de los otros países que conformaron las Provincias Unidas del Centro de América siguen este patrón.

Ampliar información de la historia y ver el diseño original de la bandera podrá encontrarla en [1]

Contenido

[ocultar]

Banderas y escudos anteriores [editar]

1823–1838 Bandera y escudo de armas usados por la provincia de Guatemala [editar]

Guatemala, como parte de las Provincias Unidas del Centro de América, adoptó la bandera y el escudo de armas aprobados por la Asamblea Nacional Constituyente de Centroamérica, según decreto n.º 29 del 21 de agosto de 1823. La Bandera de las Provincias Unidas del Centro de América constaba de tres franjas horizontales: azules la superior e inferior y blanca la del centro. Este es el citado decreto:

DECRETO CREADOR DEL ESCUDO Y LA BANDERA DE LAS PROVINCIAS UNIDAS DEL CENTRO DE AMÉRICA

DECRETO n.º 29

La Asamblea Nacional Constituyente de las Provincias Unidas del Centro de América, ha tenido a bien decretar y decreta:

Artículo 1º El Escudo de Armas de las Provincias Unidas del Centro de América será un triángulo equilátero; en su base aparecerá una cordillera de cinco volcanes, sobre un terreno que se

Decreto de creación de la bandera [editar]

El 10 de agosto de 1871, siendo presidente de la República el general Miguel García Granados, se hizo el siguiente Decreto Ejecutivo que creó la actual bandera guatemalteca:

EL DECRETO QUE NOS DA LOS SÍMBOLOS NACIONALES

DECRETO n.º 12

Miguel García Granados, presidente provisorio de la República de Guatemala.

Considerando: que la Revolución que se ha verificado impone el deber de adoptar un nuevo pabellón que esté en mejor armonía con las leyes fundamentales que establecen la independencia absoluta de la República.

Que este requisito se cumple restableciendo los colores fijados en el Decreto de la Asamblea Nacional Constituyente de 21 de agosto de 1823;

DECRETA:

Artículo 1. Los colores nacionales serán el azul y el blanco, dispuestos en tres fajas verticales, quedando la blanca en el centro.

Artículo 2. El Pabellón Nacional llevará sobre la faja blanca el Escudo de Armas de la República.

Artículo 3. El pabellón mercante será el mismo, pero sin Escudo.

Artículo 4. La cucarda llevará los mismos colores nacionales dispuestos en la misma forma.

Dado en el Palacio del Gobierno, en Guatemala, a diez de agosto de mil ochocientos setenta y uno. Miguel García Granados. El Ministro de Relaciones Exteriores encargado de la Secretaría de Gobernación, Felipe Gálvez.

Decreto de creación del escudo [editar]

Tres meses después, el 18 de noviembre del mismo año, el mismo gobierno aprobó el Decreto n.º 33 que adoptó el actual Escudo Nacional:

DECRETO n.º 33

Debiendo estar en armonía el Escudo de Armas de la República con los principios políticos que ha proclamado la Nación; en uso de las facultades de que me hallo investido,

DECRETO:

Artículo único.- Las armas de la República serán: un escudo con dos rifles y dos espadas enlazadas con dos ramas de laurel, en cada campo celeste claro. El centro será cubierto con un pergamino, que contendrá la siguiente leyenda en letras de oro: Libertad 15 de septiembre de 1821; figurando en la parte superior un quetzal como símbolo de la independencia y autonomía de la nación.

Dado en Guatemala, a dieciocho de noviembre de mil ochocientos setenta y uno. El Ministro del Interior (f) FRANCISCO ALBUREZ (f) MIGUEL GARCÍA GRANADOS.

Decreto de regulación de la bandera y el escudo [editar]

El 12 de septiembre de 1968, siendo presidente de la República don Julio César Méndez Montenegro, se emitió el siguiente Acuerdo Gubernativo:

PALACIO NACIONAL

Guatemala 12 de septiembre de 1968

EL PRESIDENTE CONSTITUCIONAL DE LA REPÚBLICA,

CONSIDERANDO:

Que mediante Decretos números 12 y 33 de fechas 10 de agosto y 18 de noviembre de 1871, dictados por el entonces presidente de Guatemala general Miguel García Granados, se establecieron respectivamente, la bandera y el escudo de armas de la República,

CONSIDERANDO:

Que la falta de una reglamentación adecuada en materia tan importante, ha dado origen a que dichos símbolos patrios se hayan venido representando en forma caprichosa y arbitraria, tanto que en lo que se refiere al matiz de sus colores como al diseño del escudo de armas de la República,

CONSIDERANDO:

Que por Acuerdo Gubernativo de fecha 30 de noviembre de 1967 se designó una comisión con el objeto de que efectuó los estudios pertinentes a la correcta aplicación de las leyes mencionadas, la que después de meritoria labor rindió dictamen presentando el proyecto respectivo:

POR TANTO:

En uso de las facultades que le confiere el inciso 4º del artículo 189 de la Constitución de la República.

En Consejo de Ministros

ACUERDA:

Artículo 1. La bandera de Guatemala es la insignia suprema de la Patria. Lleva en su centro el escudo de armas de la República, de conformidad con lo estipulado en los Decretos números 12 y 33 de 10 de agosto y 18 de noviembre de 1871.

Artículo 2. La bandera no ostenta ninguna leyenda o inscripción adicional salvo en los casos específicos previstos por los reglamentos militares.

Artículo 3. Los colores de la bandera serán el azul y el blanco, dispuestos en tres franjas verticales del mismo ancho: dos azules los extremos y una blanca en medio. La franja blanca lleva en su centro el escudo de armas de la República, en dimensiones proporcionales a las de la Insignia Patria; la bandera mercante será la misma, pero sin escudo.

El color azul que expresa justicia y lealtad corresponde al azul del cielo de Guatemala y en la nomenclatura de uso internacional se designa como ISCC-NBC 177, o VM 1.6 PB 5.9/9.4. El color blanco, que simboliza pureza e integridad, equivale al ISCC-NBS 263, o VM 2.5 PB 9.5/0.2.

Artículo 4. La forma de la bandera es un rectángulo con las dimensiones proporcionales, vertical y horizontal, de 5 a 8 respectivamente. La relación de 5 a 8 corresponde a la regla de oro de la proporción estética.

DEL ESCUDO

Artículo 5. El escudo de armas de la República, cuando se diseñe independientemente de la bandera, irá en campo celeste claro conforme Decreto de su creación. Dicho color, que representa idealidad, equivale al ISCC-NBS 184, o VM 1.5 PB 8.3/3.3.

Artículo 6. Los rifles Remington de la época (1871), se representan con bayoneta triangular calada, de perfil, con el guardamontes hacia abajo, y entrecruzados en ángulo recto en el centro del escudo.

Artículo 7. Las espadas, símbolo de justicia y soberanía, desenvainadas y en oro, se entrecruzan en ángulo recto al de los rifles.

Artículo 8. Las ramas de laurel, símbolo de victoria, que enlazan las armas, se representan al natural con frutos, entrecruzadas en la parte inferior y sin atadura alguna. Las hojas inferiores de las ramas enlazan con las empuñaduras de las espadas, las subsiguientes con las culatas de los rifles y las últimas, en el extremo superior, con las bayonetas.

Artículo 9. El pergamino, cuya leyenda hace inmortal la fecha del nacimiento de la Patria, va desenrollado en el centro del escudo, sobre el cruce de los rifles; tiene una vuelta y media hacia el frente de la parte superior y vuelta y media hacia el reverso en la inferior, descansando ésta sobre las hojas de las espadas. Centrada en el pergamino, figura la siguiente leyenda en letras de oro, mayúsculas, en cuatro líneas, así: en la primera LIBERTAD, en la segunda 15 DE, en la tercera SETIEMBRE, y en la cuarta DE 1821.

Artículo 10. En la parte superior del pergamino posa el Quetzal, símbolo supremo de libertad. Se representa diestrado, en sus colores propios. Las plumas caudales más largas, pasan sobre las ramas del lado correspondiente y sobrepasan ligeramente las hojas inferiores del laurel.

DISPOSICIONES GENERALES

Artículo 11. La bandera de Guatemala, como máximo emblema de la Patria, no saluda ni rinde honores.

Artículo 12. En lo que se refiere al uso de las insignias nacionales, continúan en vigor el “Reglamento para el Servicio del Ejército en Tiempo de Paz” (Acuerdo Gubernativo de 29 de abril de 1935, modificado por el de 8 de abril de 1960) y el “Reglamento de Instrucción de Infantería de Orden Cerrado” (Acuerdo Gubernativo de 23 de enero de 1957), así como las demás disposiciones gubernativas que traten sobre la materia, en el entendido de que deben de adaptarse a lo preceptuado en el presente reglamento.

Artículo 13. Toda persona, individual o jurídica, que se dedique a la elaboración de banderas y escudos nacionales, deberá solicitar previamente en cada caso, a la Dirección General de Cultura y Bellas Artes, la aprobación del modelo respectivo, a fin de que dichas insignias se ajusten a lo establecido en el presente Acuerdo. La mencionada dependencia hará la comprobación correspondiente, antes de que las insignias se pongan a disposición del público.

Artículo 14. La nomenclatura empleada en este reglamento corresponde a la de la Sociedad Internacional del Consejo del Color (ISCC), conjuntamente con la Oficina Nacional de Normas de los Estados Unidos de Norteamérica (NBS), así como a la del Sistema Internacional de Designación de Colores de la Casa “Munsel Color Company” (VM).

Artículo 15. Los particulares, entidades públicas o privadas, empresas y establecimientos de toda naturaleza que a la fecha ostentaren los símbolos patrios en forma distinta a los colores, dimensión y diseño descritos en este reglamento, deberán sustituirlos por los que corresponden conforme a lo preceptuado en los artículos que anteceden.

Artículo 16. Dicha sustitución no incluye a los símbolos y documentos de valor histórico ni a los que forman parte integrante de monumentos o edificaciones en general.

En cuanto al uso del escudo en monedas y demás valores del Estado, se estará a lo que disponen las leyes y reglamentos de la materia.

Artículo 17. El presente Acuerdo entrará en vigor el quince de septiembre en curso, Día de la Patria.

Comuníquese,

MÉNDEZ MONTENEGRO

El Ministro de Educación, Ministro de Gobernación, CARLOS MARTÍNEZ DURÁN HÉCTOR MANSILLA PINTO Ministro de la Defensa Nacional, Ministro de Comunicaciones y Obras Públicas, ROLANDO CHICHILLA AGUILAR OSCAR CASTAÑEDA FERNÁNDEZ Ministro de Hacienda y Crédito Público, Ministro de Salud Pública y Asistencia Social, MARIO FUENTES PIERUCCINI EMILIO POITEVIN-C. Ministro de Agricultura, Ministro de Economía, FRANCISCO MONTENEGRO JOSÉ LUIS BOUSCAYROL Viceministro de Relaciones Exteriores Ministro de Trabajo y Previsión Social, Encargado Del Despacho, JOSÉ LUIS DE LA ROCA SANTA CRUZ GIL ARTURO GONZÁLEZ SOLÍS

Más información podrá encontrarla en [2]


Cronología [editar]

Véase también [editar]

Reducción al absurdo (del latín Reductio ad absurdum) es un método de demostración (formalizado y a menudo usado por Aristóteles como un argumento lógico) en el que suponemos una hipótesis y obtenemos un resultado absurdo, por lo que concluimos que la hipótesis de partida ha de ser falsa. Este método es también conocido como prueba por contradicción o prueba ad absurdum. Parte de la base es el cumplimiento de la ley de exclusión de intermedios: una afirmación que no puede ser falsa, ha de ser consecuentemente verdadera.

En matemáticas [editar]

Supongamos que se desea demostrar la proposición P. El procedimiento consiste en demostrar que asumiendo como cierta la falsedad de P (o sea, P negada) conduce a una contradicción lógica. Esta P no puede ser falsa, por lo que ha de ser verdadera.

Por ejemplo, consideremos la proposición "no existe un número racional mínimo mayor que cero". En una reducción al absurdo, comenzaríamos por asumir lo contario que existe un mínimo número racional y que es mayor que cero; llamémoslo r0.

Ahora, hagamos x = r0/2. Por lo tanto, x es un número racional mayor que cero; y x es más pequeño que r0. Pero eso es absurdo, contradice nuestra hipótesis de partida de que r0 era el número racional mínimo. Por lo tanto, debemos concluir que la proposición que asumimos como cierta: "hay un número racional mínimo mayor que cero" es falsa.

No es inusual utilizar este tipo de razonamiento con proposiciones como la indicada, acerca de la inexistencia de cierto elemento matemático. Se asume que ese elemento existe y se prueba que eso conduce a una contradicción; por lo tanto, ese objeto no existe. Por ejemplo, se puede probar de esta manera que la raíz cuadrada de 2 es irracional.

La demostración por reducción al absurdo es un tipo de argumento lógico muy empleado en las demostraciones matemáticas. Consiste en demostrar una proposición matemática probando que el que no lo sea conduce a una contradicción.

Un ejemplo es la demostración de que la raíz cuadrada de 2 es un número irracional. La afirmación inicial es la contraria: imagínese que es un número racional, es decir, que

sqrt{2} = frac{p}{q}, donde p y q son números enteros, y que q es distinto de 0. Sin pérdida de generalidad, se puede suponer que p y q son positivos (si los dos son negativos, basta con multiplicarlos por -1), y que son primos entre sí, es decir, que no comparten ningún factor común (en caso contrario, basta con dividirlos entre su máximo común divisor).

Elevando al cuadrado:

2 = frac{p^2}{q^2}

Multiplicando por mathit{q^2} ,! se tiene:

mathit{2q^2 = p^2} ,!

La expresión mathit{2q^2} ,! es un número par, así que mathit{p^2} ,! también lo es. Eso implica que mathit{p} ,! es par, porque, de no serlo, mathit{p^2} ,! no sería par, con lo que no se podría cumplir la igualdad. Sea mathit{p=2n} ,!, donde mathit{n} ,! es un número entero. Así, la expresión queda:

mathit{2q^2=(2n)^2=4n^2} ,!

Simplificando, se tiene:

mathit{q^2=2n^2} ,!

Por el mismo razonamiento de antes, mathit{2n^2} ,! es un número par, así es que mathit{q^2} ,! también es par, y mathit{q} ,! también es par.
Como mathit{p} ,! y mathit{q} ,! son los dos pares, eso quiere decir que tienen al menos un factor común, que es mathit{2} ,!. Esto entra en contradicción con la forma en que se han elegido los números mathit{p} ,! y mathit{q} ,! para que no tuvieran ningún factor común. Como esta elección de mathit{p} ,! y mathit{q} ,! se hizo sin pérdida de generalidad y el razonamiento posterior es correcto, eso quiere decir que la premisa inicial de que sqrt{2} era racional es falsa.
Luego sqrt{2} es irracional,
C.Q.D.

Es importante advertir que para construir una prueba válida, debe demostrarse que, dada una proposición mathit{P} ,!, "no mathit{P} ,!" implica una propiedad que es falsa en el sistema matemático utilizado. El peligro es la falacia lógica de la argumentación por ignorancia, donde se prueba que "no mathit{P} ,!" implica una propiedad "mathit{Q} ,!" que parece falsa pero que realmente no se ha demostrado que lo es. Un ejemplo clásico de esta falacia es la falsa demostración de un quinto postulado de Euclides a partir de los anteriores. En el momento en que se establecieron esas pruebas, parecían correctas debido a que no se contemplaba otra geometría que la euclidiana; pero con la aparición de otras geometrías dio al traste con el sistema. Para una más profunda explicación de esos malentendidos, ver Morris Kline, Mathematical Thought: from Ancient to Modern Times.

Aunque se utiliza con gran libertad en demostraciones matemáticas, no todas las escuelas de pensamiento matemático aceptan la reducción al absurdo como universalmente válidas. En escuelas como la del intuicionismo, la ley de exclusión de intermedios no se acepta como válida. Desde este punto de vista, hay una diferencia muy significativa entre demostrar que algo que existe demostrando que sería absurdo que no lo hiciera y construyendo un ejemplo real de ese algo.

En lógica simbólica, la reducción al absurdo se representa:

si S cup { neg P } vdash F entonces S  vdash P

En esta representación, P es la proposición a demostrar, y S es una serie de proposiciones previas que tomamos como ciertas (por ejemplo, los axiomas de la teoría en la que trabajamos o los teoremas anteriores que ya han sido demostrados). Consideramos la negación de P en conjunto con S. Si esto lleva a una contradicción F, entonces podemos concluir que S nos conduce necesariamente a P.

En palabras de G. H. Hardy, "La Reducción al absurdo, que Euclides tanto amaba, es una de las mejores armas de la matemática. Es mucho mejor gambito que cualquiera de los del ajedrez: un jugador de ajedrez puede ofrecer el sacrificio de un peón u otra pieza, pero un matemático ofrece la partida".

Véase también [editar]

MATEMÁTICAS: ARMONÍA. El término armonía (arcaicamente, y también aceptado harmonía) tiene muchos significados, musicales y extramusicales, relacionados de alguna manera entre sí. En general, "armonía" significa equilibrio en las proporciones entre las distintas partes de un todo, y en general, connota belleza. En música, la armonía es la disciplina que estudia la percepción del sonido en forma "vertical" o "simultánea" en forma de acordes y la relación que se establece con los de su entorno próximo. En la jerga del tango se llama "armonía" a la contramelodía ejecutada en el violín o las cuerdas de una orquesta.

Armonía

De Wikipedia, la enciclopedia libre

ARMONÍA DEL FLAMENTO (ARRIBA)

DANZA DE LAS MIL MANOS (CHINA)

FUENTE DE LA ARMONÍA (ARRIBA)

 

Para otros usos del término, vea Armonía (desambiguación).
La "consonante" tríada mayor está compuesta de tres tonos, en una relación de números enteros: 6 a 5 a 4.
Traité de l’harmonie (Tratado de la armonía), de Jean-Philippe Rameau.

El término armonía (arcaicamente, y también aceptado harmonía) tiene muchos significados, musicales y extramusicales, relacionados de alguna manera entre sí. En general, "armonía" significa equilibrio en las proporciones entre las distintas partes de un todo, y en general, connota belleza. En música, la armonía es la disciplina que estudia la percepción del sonido en forma "vertical" o "simultánea" en forma de acordes y la relación que se establece con los de su entorno próximo. En la jerga del tango se llama "armonía" a la contramelodía ejecutada en el violín o las cuerdas de una orquesta.

Como otras disciplinas humanas,cuando el estudio de la armonía presenta dos versiones: el estudio descriptivo (es decir: las observaciónes de la práctica musical) y el estudio prescritivo (es decir: la transformación de esta práctica musical en un conjunto de normas de supuesta validez universal).

El estudio de la armonía sólo se justifica en relación a la música occidental, ya que la Occidental es la única cultura que posee una música "polifónica", es decir, una música en la que se usa ejecutar distintas notas musicales en forma simultánea y coordinada. De modo que, a pesar de que el estudio de la armonía pueda tener alguna base científica, las normas o las descripciones de la armonía tienen un alcance relativo, condicionado culturalmente.

En la música occidental, la armonía es la subdisciplina que estudia el encadenamiento de diversas notas superpuestas; es decir: la organización de los acordes. Se llama "acorde" a la combinación de tres o más notas diferentes que suenan simultáneamente (o que son percibidas como simultáneas, aunque sean sucesivas, como en un arpegio). Cuando la combinación es solo de dos notas, se llama "bicordio". Esto también puede ser considerado un acorde.

El estudio de la armonía se refiere generalmente al estudio de las progresiones armónicas y de los principios estructurales que las gobiernan.[1]

La armonía se refiere al aspecto «vertical» (simultáneo en el tiempo) de la música, que se distingue del aspecto horizontal (la melodía, que es la sucesión de notas en el tiempo).[2] La idea de vertical y horizontal es una metáfora explicativa, relacionada a la disposición de las notas musicales en una partitura: verticalmente se escriben las notas que se interpretan a la vez, y horizontalmente las que se interpretan en forma sucesiva.

En la escolástica musical, el contrapunto es una disciplina complementaria a la armonía (y que se confunde con ella), pero que se centra más en la elaboración de melodías que sean combinables simultáneamente que en los acordes resultantes de tal combinación. Es decir: se centra más en la percepción de las partes que en la del todo. Como disciplina creativa (y no como disciplina académica), el contrapunto tuvo su auge durante el Barroco, particularmente con la figura de Johann Sebastian Bach.

Contenido

[ocultar]

Definiciones [editar]

Las definiciones habituales de la armonía suelen describirla como la «ciencia que enseña a constituir los acordes y que sugiere la manera de combinarlos en la manera más equilibrada, consiguiendo así sensaciones de relajación, sosiego (armonía consonante), y de tensa e hiriente (armonía disonante)".

Esta definición se basa en la idea de que ciertas combinaciones de sonidos (intervalos o acordes) producen al oyente una sensación de tensión (combinaciones que se llaman "disonantes") y otras producen una sensación de reposo o calma (combinaciones "consonantes").

Esta diferencia entre sonidos "consonantes" y "disonantes" tiene una base acústica: cada sonido incluye dentro de sí a varios sonidos que suenan con menor volumen (llamados "armónicos"); cuando la combinación de sonidos ejecutados incluye a varias notas con sonidos "armónicos" en común, tales combinaciones serán percibidas como "consonantes".

Ahora bien, en la percepción humana no sólo intervienen factores físicos, sino también (y sobre todo) factores culturales. Lo que un hombre del siglo XV percibía como consonante, puede llamar la atención a uno del siglo XXI, y una combinación de sonidos que sugiere una sensación de "reposo" a un japonés puede no sugerírselo a un mexicano.

Si el estudio occidental de la armonía ha querido presentarla como una "ciencia", pues, es sólo un intento de legitimar como válida universalmente a una práctica musical concreta.

En la terminología musical, suele oponerse la melodía que la melodía es algo "lineal", a la armonía, que es el conjunto sonoro que forman las voces en un instante determinado.

Origen del término e historia del uso [editar]

El término «armonía» deriva del griego ἁρμονία (harmonía), que significa ‘acuerdo, concordancia’[3] y éste del verbo ἁρμόζω (harmozo): ‘ajustarse, conectarse’.[4]

Sin embargo, el término no se utilizaba en su acepción actual de armonía polifónica (es decir, de la relación ordenada entre varias melodías superpuestas, formando un todo que mantiene cierta autonomía respecto de cada una de las partes), ya que la ejecución simultánea de notas distintas (exceptuando las notas distantes entre sí en una o más octavas, que el oído humano percibe como idénticas) no formó parte de la práctica musical de Occidente hasta entrada la Edad Media.

En la música de la antigua Grecia, el término se usaba más bien como un sistema de clasificación de la relación entre un tono grave y otro agudo.[1] En la Edad Media, el término se usaba para describir dos tonos que sonaban en combinación, y en el Renacimiento el concepto se expandió para denotar tres tonos sonando juntos.[5]

El Traité de l’harmonie (1722), de Rameau, fue el primer texto acerca de la práctica musical que incluía el término «armonía» en el título. Sin embargo, no significa que esa fuera la primera discusión teórica acerca de este tema. Como todo texto teórico (particularmente de esta época), se basa en la observación de la práctica; Rameau observa la práctica musical de su época y elabora algunas reglas, otorgándole una supuesta validez universal. Especial importancia tiene en su desarrollo el fenómeno de la resonancia armónica para la justificación de los distintos elementos. Este y otros textos similares tienden a relevar y codificar las relaciones musicales que estaban íntimamente vinculadas con la evolución de la tonalidad desde el Renacimiento hasta fines del periodo románico.

El principio que subyace a estos textos es la noción de que la armonía sanciona la armoniosidad (los sonidos que complacen) si se adapta a ciertos principios compositivos preestablecidos.[6]

Desarrollo [editar]

Melodía, contrapunto y armonía están totalmente interrelacionadas. Tradicionalmente, la armonía funciona como acompañamiento, armazón y base de una o más melodías. La melodía (dimensión horizontal de la música) es una sucesión (en el tiempo) de sonidos pertenecientes a acordes, que son enriquecidos con otros sonidos que adornan y suavizan, y que producen efectos expresivos, complementando a los anteriores gracias a las sutiles relaciones que entablan con los acordes en que se basa esa melodía (integrándose perfectamente con la armonía).

Tensión y reposo [editar]

Desde hace varios siglos se descubrió que algunas combinaciones de acordes producen una sensación de tensión y tendencia al reposo. Algunos acordes, en un determinado contexto, tienen un sentido conclusivo y otros un sentido transitorio (aunque en realidad esto es relativo y depende de su relación con el conjunto de la composición. En la música académica europea, desde el final del siglo XVII hasta comienzos del siglo XX, hasta el oído menos cultivado puede distinguir cuándo está próximo o distante el final de una frase musical.

La armonía tradicional de parte del estilo prebarroco, barroco, clásico y romántico se conoce como armonía tonal, ya que está basada en el sistema tonal, teniendo una fuerte función estructural, siendo determinante en la forma musical de una determinada composición.

A partir del romanticismo musical (siglo XIX), empieza a utilizarse con más fuerza el valor colorista de la armonía, debilitando paulatinamente la función estructural de la armonía tonal e introduciendo cada vez más modalismos (proceso que culmina con la aparición de compositores impresionistas, nacionalistas y contemporáneos neoclásicos que utilizarán una armonía más libre y modal).

En la música popular [editar]

La música popular suele utilizar armonías modales y muy características (caso del flamenco), o armonías con un mayor componente tonal empleadas de manera sencilla (caso del tango), como así también armonías modales parecidas a las utilizadas por ciertos compositores de música culta a principios del siglo XX (caso de música pop/rock/música electrónica). Lo que sí es cierto es que entre la música culta y la popular ha habido una continua trasferencia de materiales musicales, entre ellos los armónicos, aunque es la culta la que ha llevado más al extremo su desarrollo.

Notas [editar]

  1. a b Carl Dahlhaus: «Harmony», en Grove Music Online, editado por L. Macy, GroveMusic.com (acceso por suscripción; consultado el 24 de febrero de 2007).
  2. Deborah Jamini: Harmony and Composition: Basics to Intermediate (pág. 147), 2005. ISBN 1-4120-3333-0.
  3. «Harmony», definición en The Concise Oxford Dictionary of English Etymology in English Language Reference, consultado en OxfordReference.com el 24 de febrero de 2007).
  4. Perseus.Tufts.edu («Harmonia», en A Greek-English Lexicon, de Henry George Liddell y Robert Scott).
  5. Según el Grove.
  6. Arnold Whittall, «Harmony», en [http://www.oxfordreference.com/views/ENTRY.html?this is gayubview=Main&entry=t114.e3144 The Oxford Companion to Music, ed. Alison Latham: Oxford University Press, 2002; consultado el 16 de noviembre de 2007.

Enlaces externos [editar]

MATEMÁTICAS: ESCATOLOGÍA: EL CONJUNTO VACÍO. En matemáticas, específicamente en teoría de conjuntos, el conjunto vacío es el único conjunto que no contiene elementos. En la axiomática de Teoría de conjuntos se postula el axioma del conjunto vacío. Algunas propiedades de los conjuntos son trivialmente ciertas para el conjunto vacío.

Conjunto vacío

De Wikipedia, la enciclopedia libre

El conjunto vacío es aquél que no tiene elementos.

En matemáticas, específicamente en teoría de conjuntos, el conjunto vacío es el único conjunto que no contiene elementos. En la axiomática de Teoría de conjuntos se postula el axioma del conjunto vacío. Algunas propiedades de los conjuntos son trivialmente ciertas para el conjunto vacío.

Contenido

[ocultar]

Notación [editar]

El conjunto vacío es denotado por cualquiera de estos símbolos:

 varnothing , acute{o} ; emptyset ,

derivada de la letra Ø (introducida especialmente por André Weil) en 1939.

Otra notación común para el conjunto vacío es:

 { } ,

Propiedades [editar]

(Aquí usaremos símbolos usados en matemáticas.)

  • Para todo conjunto A, el conjunto vacío es subconjunto de A:
 forall A : ; varnothing subseteq A
  • Para todo conjunto A, la unión de A con el conjunto vacío es A:
 forall A : ; A cup varnothing = A
  • Para todo conjunto A, la intersección de A con el conjunto vacío resulta el conjunto vacío:
 forall A : ; A cap varnothing = varnothing
  • Para todo conjunto A, el producto cartesiano de A y el conjunto vacío es vacío:
  forall A : ; A times varnothing = varnothing times A = varnothing
  • El único subconjunto del conjunto vacío es él mismo, el conjunto vacío:
 forall A : ; A subseteq varnothing ; Rightarrow ; A = varnothing
  • El número de elementos del conjunto vacío (es decir, su número cardinal) es cero; en particular, el conjunto vacío es un conjunto finito:
 | varnothing | = 0  que se puede expresar:  {Card}(varnothing) = 0
  • Para cualquier propiedad se tiene:
    • para todo elemento del  varnothing la propiedad es cierta (por vacuidad)
    • no hay elementos en el  varnothing para los cuales la propiedad sea cierta
  • Entonces: si, para alguna propiedad, las dos proposiciones siguientes son ciertas:
    • para todo elemento de V la propiedad es cierta
    • y no hay elementos en V que cumplan la propiedad
por lo tanto  V = varnothing

Los matemáticos generalmente hablan de 'el conjunto vacío' y no de 'un' conjunto vacío, pues en Teoría de conjuntos, dos conjuntos son iguales si y sólo si uno es subconjunto del otro y viceversa, i.e. tienen los mismos elementos. En conclusión, sólo hay un conjunto vacío.

Problemas comunes [editar]

El conjunto vacío, a pesar de contener nada, sigue siendo algo en sí mismo: un conjunto. Esta distinción es importante si situamos a los conjuntos en un contexto. Por ejemplo, si imaginamos a los conjuntos como bolsas, capaces de contener distintos elementos, el conjunto vacío sería aquella bolsa sin elementos dentro; pero aun así seguiría siendo una bolsa.

Es por esto que el conjunto potencia siempre contiene al conjunto vacío.

Todo conjunto es subconjunto de sí mismo, por lo tanto, el conjunto vacío es vacío en el sentido de su cardinalidad (que es igual a 0), y no en el sentido de su identidad.

Véase también [editar]

Referencias [editar]

  • Paul Halmos, Naive set theory. Princeton, NJ: D. Van Nostrand Company, 1960. Reprinted by Springer-Verlag, New York, 1974. ISBN 0-387-90092-6 (Springer-Verlag edition).
  • Jech, Thomas, 2003. Set Theory: The Third Millennium Edition, Revised and Expanded. Springer. ISBN 3-540-44085-2.