Blogia
petalofucsia

Matemáticas

MATEMÁTICAS: SI NO SEGUIMOS ESTE ORDEN: GRUPO, PAREJA, FAMILIA, ¿HAY ORDEN EN EL SISTEMA? Uno de los significados de orden es la propiedad que emerge en el momento en que varios sistemas abiertos, pero en origen aislados, llegan a interactuar por coincidencia en el espacio y el tiempo, produciendo, mediante sus interacciones naturales, una sinergia que ofrece como resultado una realimentación en el medio, de forma que los elementos usados como materia prima, dotan de capacidad de trabajo a otros sistemas en su estado de materia elaborada.

Orden

De Wikipedia, la enciclopedia libre
Este artículo trata sobre el concepto de orden. Para otros usos de este término, véase Orden (desambiguación).

Uno de los significados de orden es la propiedad que emerge en el momento en que varios sistemas abiertos, pero en origen aislados, llegan a interactuar por coincidencia en el espacio y el tiempo, produciendo, mediante sus interacciones naturales, una sinergia que ofrece como resultado una realimentación en el medio, de forma que los elementos usados como materia prima, dotan de capacidad de trabajo a otros sistemas en su estado de materia elaborada.

La capacidad de algunos sistemas de recordar el pasado (de tener memoria), produce en ese sistema la capacidad de establecer un método organizado y coordinado para repetir el logro alcanzado por selección natural, y acelerar el objetivo a conseguir. En ese proceso, se paga un precio: la pérdida de su individualidad, mayor dependencia de nuevos elementos que pueden existir gracias a una economía más holgada, pero ganando en especialización. Bajo este enfoque, el orden es la organización de las partes para hacer algo funcional y preciso, lo cual implica la presencia de un cauce que establece una transacción de cargas con menor coste y por lo tanto con potencial de desarrollo a una psicodinámica emergente, dando la oportunidad al observador de imputar una finalidad intencional y, como puede deducirse, de una acción inteligente.

Contenido

[ocultar]

[editar] Ámbitos de orden

En el ámbito del orden social, el orden se remite a la forma en la cual las comunidades se organizan. Así, existen las sociedades jerárquicas, que se basan en una organización social rígida y piramidal, o en sus antípodas las sociedades anarquistas, cuyo orden es mucho más flexible y requiere, en consecuencia, fuertes valores de conducta, como el respeto por la libertad del otro, la igualdad y la responsabilidad por los actos propios. En las diferentes formas de organización social, los factores determinantes son la cultura y los fenómenos particulares que hacen a la naturaleza de cada una de ellas, y no necesariamente las leyes escritas, las cuales tan sólo reflejan las leyes sociales creadas por la comunidad, o alguna de sus partes.

[editar] Otros puntos de vista

Bajo otro punto de vista, el orden no es únicamente una acción inteligente, sino todo aquello que funciona de una determinada manera. Así, aunque quien observa el orden y en última instancia lo define es un individuo inteligente, el orden se encuentra naturalmente en la disposición de sucesos u otros conceptos observables. Aquello que denominamos tiempo, presenta un orden natural para los sucesos y, guiados al menos por los conocimientos concretos del ser humano hasta el día de hoy, el orden cronológico es unidireccional e invariable.

Los antónimos de orden pueden ser, según el contexto en que sea utilizado, desorganización, desorden y caos.

De la misma forma, existen órdenes de órdenes, que solemos llamar estructuras. Existen multitud de estructuras en los más diversos campos tanto de la naturaleza como de la vida social.

[editar] Significados en diferentes disciplinas

Utilizado en masculino un orden puede referirse a un criterio de ordenamiento. En filosofía, orden (en griego cosmos) es lo que se opone al caos. En biología, orden es una de las categorías de la taxonomía. En ciencias sociales, generalmente se refiere al orden social o al orden público. En matemáticas, los diferentes tipos de orden son tratados por la teoría del orden.

Utilizado en femenino, una orden es un imperativo. En el catolicismo puede referirse a las Órdenes religiosas. Hay gran número de honores y condecoraciones en gran número de países que llevan el nombre de Orden.

[editar] Véase también

MATEMÁTICAS: FÍSICA. CAUSALIDAD. En física, el término causalidad describe la relación entre causas y efectos, y es fundamental en todas las ciencias naturales, especialmente en física. En términos generales, la causalidad puede ser estudiada desde varias perspectivas: la filosófica, la de la computación y la estadística.

Causalidad (física)

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Causalidad.

En física, el término causalidad describe la relación entre causas y efectos, y es fundamental en todas las ciencias naturales, especialmente en física. En términos generales, la causalidad puede ser estudiada desde varias perspectivas: la filosófica, la de la computación y la estadística.

Contenido

[ocultar]

[editar] Introducción

En física clásica se asumía que todos los eventos están causados por otros anteriores y que dicha causalidad es expresable en términos de leyes de la naturaleza. Dicha pretensión llegó a su punto más alto en la afirmación de Pierre-Simon Laplace. Laplace afirmó que si se conoce el estado actual del mundo con total precisión, uno puede predecir cualquier evento en el futuro. Esta perspectiva se conoce como determinismo o más precisamente determinismo causal.

Aunque el determinismo de Laplace parece correcto respecto a las ecuaciones aproximadas de la física clásica, la teoría del caos ha añadido pequeñas complicaciones. Muchos sistemas presentan una fuerte sensibilidad a las condiciones iniciales, lo que significa que condiciones iniciales muy similares en ciertos sistemas pueden conducir a comportamientos a largo plazo muy diferentes. Eso sucede por ejemplo en el tiempo atmosférico. Hacia 1987 era habitual usar superordenadores en la predicción del tiempo, por ejemplo el Cray X-MP del Centro Europeo para el Pronóstico del Tiempo a Medio Plazo, que operaba con una capacidad máxima de 800 megaflops, podía calcular en apenas media hora un pronóstico aceptable del tiempo para el día siguiente en todo el hemisferio. Y aunque cada día se realizaban pronósticos de los siguientes diez días, los resultados del pronóstico a partir del cuarto o quinto día diferían sensiblemente de lo previsto por el ordenador.[1]

Sin embargo, por encima de la impredictibilidad práctica causada por el comportamiento estocástico o caótico de los sistemas clásicos, está el hecho de que la mecánica cuántica presenta junto con una evolución determinista recogida en la ecuación de Schrödinger, una evolución no-determinista recogida en el postulado del colapso de la función de onda.

[editar] Mecánica relativista

De acuerdo con los postulados comunes de la física newtoniana, la causa precede al efecto en el tiempo. Sin embargo, en la física moderna, el concepto más simple de causalidad ha necesitado ser clarificado. Por ejemplo, en la teoría de la relatividad especial, el concepto de causalidad se mantiene, pero el significado de "preceder en el tiempo" sigue siendo absoluto y no depende del observador (aunque no pasa igual con el concepto de simultaneidad de conceptos no relacionados causalmente, que ahora sí pasan a depender del observador). Consecuentemente, el principio relativista de causalidad dice que la causa precede a su efecto para observadores inerciales. Esto implica que, en términos de la teoría de la relatividad especial, una condición necesaria para que A sea causa de B, es que B sea un evento que pertenece al cono de luz de A (en términos de distancias espacio-temporales se dice que A y B están separados por intervalo temporaloide). A pesar de algunas obras de ciencia ficción, en los supuestos bajo los cuales la teoría de la relatividad especial es adecuada para describir el mundo, resulta imposible, no sólo influir en el pasado, sino también en objetos distantes mediante señales que se muevan más rápidas que la velocidad de la luz.

En la teoría general de la relatividad, el concepto de causalidad se generaliza de la manera más directa posible: el efecto debe pertenecer al cono de luz futuro de su causa, aún en espacio-tiempos curvos; aunque pueden aparecer ciertas complicaciones, como cuando uno trata soluciones exactas de las ecuaciones de Einstein, como el Universo de Gödel, donde existen curvas temporales cerradas, y un observador puede verse a sí mismo en el pasado, y otra serie de peculiaridades que, no obstante, no incurren en ninguna paradoja.[2]

[editar] Mecánica cuántica

Nuevas sutilezas se toman en cuenta cuando se investiga la causalidad en mecánica cuántica no relativista y teoría cuántica de campos (mecánica cuántica relativista). En la teoría cuántica de campos, la causalidad está estrechamente relacionada con el principio de localidad. El análisis de ese principio es delicado, y muchas veces ese análisis pasa por el uso del teorema de Bell. De todas maneras, el resultado de dicho análisis parece depender, en parte, de desde qué interpretación de la mecánica cuántica se interpreten los resultados.

Sin embargo, se sospecha que, aún con todas estas sutilezas, el principio de causalidad sigue siendo un concepto válido de toda teoría física realista. Así, parece que la noción de que los eventos pueden ser ordenados en causas y efectos es necesaria para prevenir ciertas paradojas del mundo que conocemos.

La base de la causalidad física son los procesos energéticos que están gobernados por el principio físico de la conservación de la energía.

[editar] Principio de causalidad

El principio de causalidad postula que todo efecto -todo evento- debe tener siempre una causa (que, en idénticas circunstancias, una causa tenga siempre un mismo efecto se conoce como "principio de uniformidad"). Se usa para la búsqueda de leyes definidas, que asignan a cada causa su correspondiente efecto.

Este principio refleja un comportamiento mecánico de la naturaleza, que hasta el siglo XX se había aceptado e interpretado en un sentido determinista. No obstante, a principios de este siglo Heisenberg introdujo su principio de incertidumbre, que modificaba profundamente el principio de causalidad clásico.

Heisenberg y otros padres de la mecánica cuántica introdujeron un modelo de átomo que renunciaba a la visión clásica de un compuesto de partículas y ondas. Se concluyó que estaba condenado al fracaso cualquier intento de establecer analogías entre la estructura atómica y nuestra intuición sobre objetos macroscópicos. La formulación matemática de la teoría de Heisenberg se llamó inicialmente mecánica matricial, porque requería del uso de las matrices del álgebra lineal clásica. Esta formulación resultó complementaria de la mecánica ondulatoria, del físico austriaco Erwin Schrödinger.

Usando esta mecánica, los niveles de energía u órbitas de electrones se describen en términos probabilísticos: en general, de una misma causa no se deriva siempre un mismo efecto, sino que existe una variedad de posibles efectos. Sólo se puede predecir (aunque, en principio, con una fiabilidad determinista total) la probabilidad de que, cuando la causa se produzca, ocurra cada uno de los efectos.

Este comportamiento resulta extraño para nuestra experiencia ordinaria. Su explicación la podemos resumir en los siguientes puntos, que deben aceptarse como postulados avalados por miles de observaciones experimentales:

  • Existen propiedades de la materia (observables) que no se pueden medir simultáneamente (observables que no conmutan). Por ejemplo, la posición y la velocidad de una misma partícula sería un par de propiedades de este tipo. Para ilustrar esa situación con un análogo clásico burdo, piénsese que, si un microscopio es lo suficientemente sensible como para hacer visible un electrón, deberá enviar una cantidad mínima de luz u otra radiación apropiada sobre él, que lo haga visible. Pero el electrón es tan pequeño que este mínimo de radiación (digamos, un fotón) es suficiente para hacerle cambiar de posición apenas lo tocara, de modo que en el preciso instante de medir su posición, alteraríamos ésta.
  • Supongamos que hemos medido una de estas propiedades observables, de modo que conocemos con precisión su valor. Cuando un instante después midamos la segunda propiedad, obtendremos uno de los posibles valores de esta segunda propiedad, pero no podemos predecir antes cuál: sólo se puede predecir la probabilidad con la que cada uno de los valores posibles serán obtenidos.

Para algunos autores, desde el punto de vista filosófico, esto supone renunciar al principio de causalidad: podemos hallar dos sistemas físicos que han sido preparados exactamente del mismo modo, pero tales que, al medir una misma propiedad de ambos, obtenemos un resultado distinto en cada caso. No existe ninguna causa por la que hayamos obtenido los resultados diferentes: la Naturaleza no es determinista. Sin embargo, sí se pueden determinar con precisión las probabilidades de obtener las posibles medidas. Y como los objetos macroscópicos están formados por números gigantescos de partículas, las predicciones probabilísticas cuánticas acaban siendo, estadísticamente hablando, totalmente precisas, lo que hace de la Mecánica Cuántica una teoría extraordinariamente exacta.

La interpretación descrita de la mecánica cuántica es la que se ha impuesto con el tiempo, y se le llama interpretación de Copenhague en honor de la escuela del físico danés Niels Bohr. Inicialmente, la renuncia al principio de causalidad en esta interpretación no fue aceptada por muchos físicos, incluyendo a Einstein, quien afirmó: “Dios no juega a los dados”. De hecho, el propio Einstein, en colaboración con Podolski y Rosen, ideó un experimento (Paradoja EPR, por las siglas de sus autores) tal que las conclusiones de la interpretación de Copenhague parecían absurdas. Bohr mostró que, aunque muy extrañas, estas conclusiones no son absurdas. Experimentos de este tipo fueron llevados a cabo a finales del siglo XX por Alain Aspect, y han confirmado la interpretación de Copenhague.

Sin embargo, esta interpretación se enfrenta todavía a la llamada paradoja del gato de Schrödinger (remarquemos que Schrödinger, como Einstein, fue uno de los padres de la Mecánica Cuántica). Esta paradoja, que afecta a la definición de lo que es un proceso de medida (la distinción entre la materia observada y la mente del observador), no ha podido ser aún explicada de forma satisfactoria.

Existen multitud de efectos que se derivan del principio de incertidumbre. Uno de ellos, que afecta al ejemplo de incertidumbre posición-velocidad anterior, es la imposibilidad de la ausencia completa de energía cinética o, digamos, velocidad, para una partícula (ni siquiera en el cero absoluto). Si la energía cinética alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sería posible confinarlas y determinar su posición con precisión arbitraria, a la vez que conoceríamos su velocidad (que sería cero). Por tanto, debe existir alguna “energía residual del punto cero”, incluso en el cero absoluto, para mantener las partículas en movimiento, y también, por así decirlo, nuestra incertidumbre. Esa energía “punto cero” se puede calcular, y resulta suficiente para evitar que el helio líquido se solidifique, incluso a temperaturas tan próximas como se quiera del cero absoluto (el cero en sí resulta inaccesible).

Las consecuencias del principio de incertidumbre se constatan en todas las partes de la microfísica, y acaban resultando asombrosas cuando se extrapolan al Universo en su conjunto. Así:

  • Desde los tiempos de Einstein, en 1930, se sabía que el principio de incertidumbre también llevaba a la imposibilidad de reducir el error en la medición de energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida. (De hecho, al principio, Einstein creyó poder utilizar esta tesis como trampolín para refutar el principio de incertidumbre, pero también Bohr mostró que la tentativa de Einstein era errónea).
  • De esta versión de la incertidumbre se seguía que en un proceso subatómico se podía violar durante breves lapsos la ley de la conservación de la energía (siempre y cuando todo volviese al estado de conservación cuando concluyese ese lapso). En general, cuanto mayor sea la desviación de la conservación, tanto más breve será el intervalo de tiempo en que ésta es tolerable. El físico japonés Hideki Yukawa aprovechó esta noción para elaborar su teoría de los piones, confirmada experimentalmente.
  • Más aún, posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las partículas nacían de la nada como un reto a la energía de conservación, pero se extinguían antes del tiempo asignado a su detección, por lo cual eran sólo “partículas virtuales”. Hacia fines de la década 1940-1950, tres investigadores (premios Nobel de Física en 1965) elaboraron la teoría sobre esas partículas virtuales: los físicos norteamericanos Julian Schwinger y Richard Phillips Feynman, y el físico japonés Shin'ichirō Tomonaga. Los diagramas de Feynman son usados corrientemente en la física de partículas, donde llevan a predicciones extremadamente exactas.
  • A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó como una pequeña pero muy masiva partícula virtual que se expandió con extrema rapidez y que aún sigue expandiéndose. Según este punto de vista, el Universo se formó de la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número infinito de Universos que se formen (y, llegado el momento, acaben) en esta Nada.

En resumen, el principio de incertidumbre afectó profundamente al pensamiento de físicos y filósofos. Ejerció una influencia directa sobre la cuestión filosófica de causalidad, la relación entre causa y efecto. Pero sus implicaciones para la ciencia no son las que se suponen popularmente a menudo. Se puede leer que el principio de incertidumbre anula toda certeza acerca de la naturaleza, y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Pero tanto si esta interpretación es válida desde el ángulo filosófico como si no, el principio de incertidumbre no ha modificado un ápice la actitud del científico ante la investigación. Y esto por varios motivos:

  • La incertidumbre también existe a un nivel clásico. Por ejemplo, incluso si nos olvidamos de posibles efectos cuánticos, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas. Sin embargo, estas moléculas acatan ciertas leyes termodinámicas, y su conducta es previsible sobre una base estadística. Estas predicciones son infinitamente más precisas que las de las compañías aseguradoras, que planifican su actividad (y obtienen beneficios) calculando con índices de mortalidad fiables, aunque les sea imposible predecir cuándo morirá un individuo determinado.
  • Ciertamente, en muchas observaciones científicas, la incertidumbre es tan insignificante comparada con la escala correspondiente de medidas, que se la puede descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente la posición y el movimiento de una estrella, o un planeta, o una bola de billar, o incluso un grano de arena con exactitud absolutamente satisfactoria.
  • La incertidumbre entre las propias partículas subatómicas no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha empleado para entender el modelo atómico (que resultaba inestable desde el punto de vista no cuántico), esclarecer hechos sobre la radiactividad, sobre la absorción de partículas subatómicas por los núcleos, y otros muchos acontecimientos subatómicos. En ello se emplea una economía lógica y razonabilidad muy superior de lo que hubiera sido esperable sin él.

Es cierto que el principio de incertidumbre o, en general, la física cuántica, se enfrenta a la paradoja no resuelta del problema de la medición (el gato de Schrödinger). Pero ésta tiene sus orígenes en la distinción entre mente y materia, determinismo y libre albedrío, y profundiza en ella como nunca antes habían imaginado los filósofos. El principio de incertidumbre significa que el Universo es más complejo de lo que se suponía, pero no irracional.

[editar] Referencias

  1. O. Stewart, 2001, p.169
  2. «Revisiting the Light Cone of the Goedel Universe». arXiv.

[editar] Bibliografía

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: CAUSA. Dados dos eventos A y B, A es causa de B si se cumplen una serie de condiciones lógicas, dos sucesos importantes.

Causa

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Causa (desambiguación).

Dados dos eventos A y B, A es causa de B si se cumplen una serie de condiciones lógicas, dos sucesos importantes.

  • La ocurrencia de A va acompañada de la ocurrencia de B, o si examinamos, representamos numéricamente el grado en que ocurren A y B, entonces encontramos una correlación positiva entre ambas variables.
  • La no-ocurrencia de B implica que tampoco podrá hallarse la ocurrencia de A, aunque la ocurrencia de B no tiene por qué estar ligada necesariamente a la concurrencia de A.

Cuando dos eventos A y B cumplen las dos condiciones anteriores decimos que existe una relación causal entre ambos: en concreto "A es causa de B" o equivalentemente "B es un efecto de A".

La idea de causa intuitivamente surge del intento de explicarnos lo que ocurre a nuestro alrededor mediante un determinado esquema lógico subyacente que nos permite relacionar unas cosas con otras mediante conexiones necesarias. Esta capacidad para establecer conexiones causales es una habilidad cognitiva básica de primates superiores, algunos mamíferos superiores e incluso algunos invertebrados como el pulpo de mar.

Esta habilidad cognitiva básica es importante precisamente porque existe cierta evidencia empírica de que que siempre que se dan las mismas circunstancias como causas, se producirá siempre el mismo efecto. Eso es lo que entendemos por principio de causalidad que según puede formular de un modo un tanto naïf como "todo lo que sucede en el mundo, en la Naturaleza tiene una causa" (también se suele parafrasear una proposición de Aristóteles: "Todo lo que se mueve, se mueve por otro").

 

Contenido

[ocultar]

[editar] Causa en Ciencias naturales y Ciencias sociales

La idea de causa aparece en ciencias naturales y sociales en varios contextos:

  1. En física donde el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  2. En estadística donde es analizado por la estadística inferencial.
  3. En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas (por tanto en general se trata del mismo concepto manejado en el contexto 2).
  4. En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimos físico simple (caso 1), la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

[editar] Causa en filosofía

Plantilla:Causalidad (filosofía) La idea de "causa" ha suscitado un buen número de debates filosóficos, desde los primeros intentos filosóficos. Aristóteles concluye el libro de los Segundos analiticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica "nada hay en el intelecto que no haya estado antes en los sentidos" (Nihil est in intellectu, quod prius non fuerit in sensu). Al mantener que "conocer la naturaleza de una cosa es conocer, ¿por qué es?" y que "poseemos conocimiento científico de una cosa sólo cuando conocemos su causa".

Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración: la forma definible; un antecedente que necesita un consecuente; la causa eficiente; la causa final.[1]

En la filosofía occidental, el concepto de causa como "conexión necesaria" fue criticado por el filósofo David Hume.

En las relaciones causales encontramos que:

  • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
  • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
  • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.[2]
  • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. De la confusión de ambos se ha seguido tradicionalmente la demostración de la existencia de Dios a partir del principio de causalidad. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
  • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.

[editar] Notas al pie

  1. Vulgarmente causa material, causa formal, causa eficiente y causa final
  2. La palabra efecto, proviene del latín effectus y tiene una gran cantidad de significados, ligados muchos de ellos a la experimentación científica, porque su significado principal indica que efecto es aquello que se consigue por virtud de una causa o el fin para que se hace una cosa. La relación que existe entre causa y efecto se llama causalidad. La causalidad es objeto de profundos análisis en el campo filosófico.

[editar] Véase también

MATEMÁTICAS: RELACIONES DE CAUSALIDAD. En estadística, la causalidad se refiere a una relación de necesidad de coocurrencia de dos variables estadísticas correlacionadas, probar causalidad entre dos variables implica además de que guarden una correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.

Causalidad (estadística)

De Wikipedia, la enciclopedia libre

En estadística, la causalidad se refiere a una relación de necesidad de coocurrencia de dos variables estadísticas correlacionadas, probar causalidad entre dos variables implica además de que guarden una correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.

Contenido

[ocultar]

[editar] Introducción

En epidemiología, el hecho de que dos fenómenos estén estadísticamente relacionados no implica necesariamente que uno sea causa del otro. Para poder afirmar esto último es necesario disponer de dos grupos comparables (constituidos por individuos elegidos al azar), y someter a la exposición al factor estudiado a uno de ellos, estudiando las diferentes tasas de aparición del efecto.

Esto, en la mayoría de los casos es imposible por razones éticas y prácticas, por lo que se recurre a estudios analíticos retrospectivos: Se toman dos grupos, uno con el efecto (por ejemplo, enfermedad) y otro sin él ("sanos"), y se estudia, de manera retrospectiva, cuál fue el grado de exposición a la hipotética causa (factor de riesgo) en cada caso.

No obstante ello los estudios analíticos prospectivos suelen ser los que garantizan - dentro de los límites de confianza estadística fijados - las asociaciones causales más fuertes.

A falta, entonces, de una prueba experimental idónea se han postulado una serie de criterios cuyo cumplimiento garantiza que la asociación no sea "casual", sino "causal". Los más conocidos son los formulados por Sir Austin Bradford Hill:

  • Fuerza de la asociación, estimable mediante las medidas estadísticas correspondientes.
  • Gradiente o efecto dosis-respuesta (a mayor dosis de la causa, mayor cantidad del efecto).
  • Secuencia temporal.
  • Consistencia, o repetición del mismo resultado en otros estudios.
  • Coherencia con otros hallazgos.
  • Analogía con otros fenómenos.
  • Plausibilidad biológica, es decir, existencia de un mecanismo biológico plausible que explique la relación causa-efecto.
  • Especificidad.
  • Evidencia experimental, demostración mediante estudios experimentales.

[editar] Factor condicionante

Un factor condicionante es una variable que parece influir causalmente en otra variable, llamada efecto; aun cuando el factor condicionante no sea la única causa eficiente para el efecto. Formalmente A es un factor condicionante de B si se cumple la sigueinte relación entre las probabilidades condicionadas:

(1) P(B|A) > P(B|bar{A}), qquad mbox{con} P(A) ne 0

Es decir, la probabilidad de que se dé B dado que sabemos que está ocurriendo A, es mayor que la probabilidad de que se dé B dado que sabemos que no ocurre A. Esto generaliza la idea de causa, ya que si "A es causa de B" la relación (1) se cumple trivialmente ya que se tiene:

P(B|A) =1, P(B|bar{A}) =0

La idea del factor condicionante, tiene la ventaja de que en ocasiones es difícil demostrar estadísticamente que "A es causa de B", aunque es relativamente fácil de argumentar la validez estadística de que "A es un factor condicionante de B".

[editar] Formas alternativas

Si además sucede que 1 > P(A) > 0, la relación (1) también puede escribirse como:

(1b) P(B) > P(B|bar{A}),qquad mbox{o} qquad P(B|A) > P(B)

Por ejemplo para demostrar la primera relación, basta considerar las siguientes identidades:

begin{matrix} P(B) = P(B|A)P(A) + P(B|bar{A})P(bar{A}) = P(B|A)P(A) + P(B|bar{A})(1-P(A))  Rightarrow P(B) = P(B|bar{A}) + P(A)[P(B|A) - P(B|bar{A})] ge P(B|bar{A}) +varepsilon end{matrix}

Siendo:

delta:=P(B|A) - P(B|bar{A})> 0varepsilon = P(A)delta > 0

Similarmente, se puede demostrar la otra identidad:

begin{matrix} P(B) = P(B|A)P(A) + P(B|bar{A})P(bar{A}) = P(B|A)(1-P(bar{A})) + P(B|bar{A})P(bar{A})  Rightarrow P(B) = P(B|A) + P(bar{A})[P(B|bar{A}) - P(B|A)] le P(B|A) - bar{varepsilon} end{matrix}

Donde:

bar{varepsilon} = P(bar{A})delta > 0

[editar] Véase también

[editar] Enlaces externos

MATEMÁTICAS: RELACIÓN MATEMÁTICA. Una relación , de los conjuntos es un subconjunto del producto cartesiano. El concepto de relación implica la idea de enumeración, de algunos de los elementos, de los conjuntos que forman tuplas.

Relación matemática

De Wikipedia, la enciclopedia libre

Una relación R_{ }^{ }, de los conjuntos  A_1, A_2, ldots , A_n es un subconjunto del producto cartesiano

Rsubseteq A_1 times A_2 times ldots times A_n

Una Relación binaria es una relación entre dos conjuntos.

El concepto de relación implica la idea de enumeración, de algunos de los elementos, de los conjuntos que forman tuplas.

 R(a_1,a_2, ldots ,a_n) qquad mbox{o bien} qquad (a_1,a_2, ldots ,a_n) in R

Un caso particular es cuando todos los conjuntos de la relación son iguales:  A_1 = A_2 = ldots = A_n en este caso se representa  A times A times ldots times A como  A^n , , pudiéndose decir que la relación pertenece a A a la n.

Rsubseteq A^n

[editar] Tipos de relaciones

En las relaciones se diferencian los tipos según el número de conjuntos en el producto cartesiano, que es el número de términos de la relación:

Relación unaria: un solo conjunto  R  subseteq A , ; R(a)Relación binaria: con dos conjuntos  R  subseteq A_1 times A_2 , ; R(a_1,a_2)Relación ternaria: con tres conjuntos  R  subseteq A_1 times A_2  times A_3 , ; R(a_1,a_2,a_3)Relación cuaternaria: con cuatro conjuntos  R  subseteq A_1 times A_2 times A_3 times A_4 , ; R(a_1,a_2,a_3,a_4)...Relación n-aria: caso general con n conjuntos  R  subseteq A_1 times A_2 ldots times A_n , ; R(a_1,a_2,ldots,a_n)

[editar] Véase también

MATEMÁTICAS: FAMILIA (MATEMÁTICAS). En matemáticos, la noción de familia es una generalización de aquella de continuación, continuación acabada o continuación referenciada por los enteros. Así se podrá hablar, en algèbre lineal, de la familia de vecteurs (u1, u2, … , un), que es una familia acabada, o de la familia dénombrable (un)no ' ∈ No Una familia es indexada siempre, aunque lo es a veces implicitement, por ejemplo en de los locutions como « familia libre » o « familia generadora ». .

Familia (matemáticas)

Un artículo de WikiLingue, la Wikipedia multiLingüe, la enciclopedia libre.

En matemáticos, la noción de familia es una generalización de aquella de continuación, continuación acabada o continuación referenciada por los enteros. Así se podrá hablar, en algèbre lineal, de la familia de vecteurs (u1, u2, … , un), que es una familia acabada, o de la familia dénombrable (un)no ' ∈ No  Una familia es indexada siempre, aunque lo es a veces implicitement, por ejemplo en de los locutions como « familia libre » o « familia generadora ». .

Familia referenciada : definición

Una familia (x_i)_{iin I} indexada por un conjunto I de elementos xi de un conjunto E es una aplicación definida sobre I a valores en E. Se trata pues de una terminología y de una notación, mejor adaptadas a ciertos usos, para la noción conocida de aplicación (o de función). Los elementos de I son llamados indicio (o índice). El elemento de la familia (x_i)_{iin I} de indicio i es xi.

Cuándo Se habla de elemento de una familia, se trata de un elemento del conjunto imagen de la familia en tanto que aplicación : un elemento de la familia (x_i)_{iin I} es el uno de los xi.

Cuándo Se habla de la cardinalité de una familia, se trata a priori de la cardinalité del conjunto de sus indicios (o de modo equivalente de la cardinalité del graphe de la familia en tanto que aplicación). Esto se dice puede siempre precisar : familia sobre un conjunto de indicios de cardinalité tal. Así una familia acabada es una familia cuyo conjunto de los indicios (y no de los elementos) está acabado, una familia infinita es una familia cuyo conjunto de los indicios está infinito, una familia dénombrable es una familia cuyo conjunto de los indicios está dénombrable etc.

Se llama igualmente continuación una familia cuyo conjunto de los indicios es el conjunto de los enteros o un bajo-juntos de éste, acabado o infinito (los no ' primeros enteros, los enteros no nuls ...). Pero esto no es exclusivo : por ejemplo, en algèbre lineal, se habla con mucho gusto de familia de vecteurs, incluso en este caso.

Más generalmente, se podrá hablar, teoría de los conjuntos, de continuación para una familia cuyo conjunto de los indicios es un ordinal, o incluso un conjunto « explicitement » bien ordenado.

Teoría axiomatique de los conjuntos

En teoría de los conjuntos una aplicación es el más a menudo identificada a su graphe : es un conjunto de parejas. Una aplicación definida sobre I es un conjunto de parejas tales que cada elemento de I apparait una y una sola vez primera composante de una pareja de este conjunto. Es pues también la definición de familia de conjuntos indexados por I. Se se preocupa pocos el conjunto de llegada en este caso. Se muestra sin embargo que sí {HAi}iI es una familia de conjuntos, entonces se puede bien hablar del conjunto de los TIENE :i 

{HAi | iI}  « es » un conjunto.

Eso puede demostrarse utilizando esencialmente el hecho que una aplicación es un conjunto de parejas y el esquema de axiomes de comprensión (hace falta volver a la definición de pareja teoría de los conjuntos, y utilizar el axiome de la reunión).

Artículos connexes

Indexed familyestás:Familia de conjuntos

MATEMÁTICAS: GRUPO. En álgebra abstracta, la teoría de grupos estudia las estructuras algebraicas conocidas como grupos. Sus objetivos son, entre otros, la clasificación de los grupos, sus propiedades y sus aplicaciones tanto dentro como fuera de las matemáticas.

Teoría de grupos

De Wikipedia, la enciclopedia libre
Diagrama de Cayley del grupo libre de orden dos.

En álgebra abstracta, la teoría de grupos estudia las estructuras algebraicas conocidas como grupos. Sus objetivos son, entre otros, la clasificación de los grupos, sus propiedades y sus aplicaciones tanto dentro como fuera de las matemáticas.

Los grupos sirven como pilar a otras estructuras algebraicas más elaboradas como los anillos, los cuerpos o los espacios vectoriales. La teoría de grupos tiene muchas aplicaciones en el campo de la física y la química, y es potencialmente aplicable en situaciones caracterizadas por la simetría.

El orden de un grupo es su cardinalidad; en base a él, los grupos pueden clasificarse en grupos de orden finito de orden infinito. La clasificación de los grupos simples de orden finito es uno de los mayores logros matemáticos del siglo XX.

Contenido

[ocultar]

[editar] Historia

Las raíces históricas de la teoría de grupos son la teoría de las ecuaciones algebraicas, la teoría de números y la geometría. Euler, Gauss, Lagrange, Abel y Galois fueron los investigadores iniciadores de ésta ciencia. Galois es reconocido como el primer matemático que relacionó ésta teoría con la teoría de cuerpos resultando en la teoría de Galois. Otros importantes matemáticos en este campo incluyen a Cayley, Emil Artin, Emmy Noether, Sylow entre muchos otros. Fue Walter von Dick quién en 1882, dio la moderna definición de grupo.

[editar] Definiciones

[editar] Grupos

Un grupo (G, circ) es un conjunto G en el que se ha definido una ley de composición interna circ que satisface los siguientes axiomas:

  1. Asociatividad: a circ (b circ c)=(a circ b) circ c, forall a,b,c in G
  2. Elemento neutro: exists e in G : e circ a=a circ e=a
  3. Elemento simétrico: forall a in Gquad exists a^{-1} in G : acirc a^{-1}=a^{-1} circ a=e

Por lo tanto, un grupo está formado por un conjunto de objetos abstractos o símbolos, y por una ley de composición interna que los relaciona. Dicha ley de composición interna indica cómo deben ser manipulados los objetos del grupo.

Se dice que un grupo es abeliano o conmutativo cuando verifica además la propiedad conmutativa:

a circ b = b circ a quad forall a in G

 

[editar] Notación

Se habla de notación aditiva cuando se representa la ley de composición interna como "a + b", y el elemento neutro como " 0 ". Por otro lado, la notación multiplicativa es aquella en la que la ley de composición interna se representa como "a cdot b", o "ab", y el elemento neutro como " 1 ".

[editar] Ejemplos

  • (mathbb{Z},+), el conjunto de números enteros con la suma usual, es un grupo abeliano; donde el elemento neutro es el 0, y el simétrico de x, es -x.
  • (mathbb{R},+), el conjunto de los números reales con la suma usual, es un grupo abeliano; donde el elemento neutro es el 0, y el simétrico de x, es -x.
  • (mathbb{R}setminus{0},cdot), el conjunto de los números reales (excluyendo al 0) con la multiplicación, es un grupo abeliano; donde el elemento neutro es el 1, y el simétrico de x es 1/x. Notar que al no tener el cero elemento simétrico multiplicativo, se lo debe excluir.
  • El conjunto de todas las biyecciones de un conjunto X - simbolizado por S(X) - junto con la composición de funciones, es un grupo no abeliano (si la cardinalidad de X es mayor que dos) y se llama grupo simétrico de X.
  • El conjunto de matrices rectangulares de dimensiones ntimes m con la suma, es un grupo abeliano.
  • El conjunto de matrices cuadradas con determinante diferente de cero con la multiplicación (Grupo general lineal), no es abeliano.
  • Las clases de homotopía de trayectorias continuas S^1to X en un espacio topológico X forman un grupo no necesariamente abeliano. Ésta construcción es el grupo fundamental de X.
    • El grupo fundamental de un círculo (circle, cercle, Kreis) es el grupo cíclico infinito; mathbb{Z}.
    • El de la esfera S2 es trivial = 0.
    • De un toro es mathbb{Z}oplus mathbb{Z}
    • De un toro sin un disco es el grupo libre de orden dos, F2. De un toro sin dos discos disjuntos; F3.
    • Del plano proyectivo es mathbb{Z}_2
    • El de la botella de Klein tiene la presentación; langle a,b: aba=brangle y que corresponde al producto semidirecto de mathbb{Z} con mathbb{Z}.

[editar] Operaciones

Entre dos grupos G, H puede haber morfismos, i.e. funciones que son compatibles con las operaciones en cada uno de ellos. Si phicolon Gto H es un homomorfismo entonces obedece

phi(ab)=phi(a)phi(b),

donde hemos hecho la convención de escribir ab para indicar la operación de a con b en G, y φ(a)φ(b) la operación de φ(a) con φ(b) en H.

El conjunto φS es un subgrupo en H cuando S es un subgrupo en G.

Si transformamos un conmutador: aba − 1b − 1 se obtiene: φ(aba − 1b − 1) = φ(a)φ(b)(φ(a)) − 1(φ(b)) − 1.

[editar] Categoría de grupos

Desde el punto de vista de la teoría de categorías, la teoría de grupos podría catalogarse como una categoría llamada categoría de grupos, debido a que en ella se estudia a los grupos y sus morfismos. La categoría de grupos es muy grande, pero puede armarse una relación de equivalencia en esta categoría para que se factorice: la relación entre grupos de ser isomorfos reduce cuestiones estructurales de la categoría de grupos a la categoría de grupos-módulo-los-isomorfos. En esta reducción la operación de unión disjunta la convierte en una categoría monoidal.

[editar] Teoría geométrica de los grupos

Los más actuales temas de investigación en la teoría de grupos tienen que ver con las modernas técnicas de la topología. Una manera estándar de construir nuevos grupos a partir de los conocidos son los

  • productos libres,
  • productos libres amalgamados y las
  • HNN-extensiones.

La gran variedad de técnicas topológicas pueden ser aplicadas desde que se sabe que es posible construir siempre un espacio topológico (de hecho un CW-complejo dos-dimensional) de tal manera que el grupo fundamental de este espacio es el grupo dado.

 

[editar] Referencias

  1. Referencia global en Encyclopaedia of Mathematics
  • Alexandroff, P. S. (1967). Introducción a la Teoría de los Grupos. Buenos Aires: Editorial Universitaria de Buenos Aires, Colección Cuadernos Nº 132, 152 páginas, en rústica. Traducción del ruso: Juana Elisa Quastler. 
  • Adler, Irving (1970). La Nueva Matemática. Buenos Aires: Editorial Universitaria de Buenos Aires, Colección Ciencia Joven, 288 páginas, en rústica. Traducción del inglés: Jorge Jáuregui. Original: The New Mathematics, The John Day Company, New York. 

[editar] Véase también

MATEMÁTICAS: GRUPO (MATEMÁTICA). En álgebra abstracta, un grupo es un conjunto en el que se define una operación binaria (i.e. un magma), que satisface ciertos axiomas detallados más abajo. La rama de la matemática que estudia los grupos se llama teoría de grupos.

Grupo (matemática)

De Wikipedia, la enciclopedia libre

En álgebra abstracta, un grupo es un conjunto en el que se define una operación binaria (i.e. un magma), que satisface ciertos axiomas detallados más abajo. La rama de la matemática que estudia los grupos se llama teoría de grupos.

Contenido

[ocultar]

[editar] Definición

Sea una estructura algebraica formada por un conjunto A, sobre cuyos elementos se ha definido una operación o ley de composición interna binaria denotada por " circ ". Se dice que la estructura ( A, circ ) es un grupo con respecto a la operación  circ si satisface las siguientes propiedades:

  1. Operación interna: para cualesquiera dos elementos del conjunto A operados bajo  circ , el resultado siempre pertenece al mismo semigrupo A. Es decir:     forall x, y in A : quad     x circ y in A
  2. Asociatividad: para cualesquiera elementos del conjunto A no importa el orden en que se operen las parejas de elementos, mientras no se cambie el orden de los elementos (ver grupo abeliano), siempre dará el mismo resultado. Es decir:     forall x, y, z in A: quad    x circ (y circ z) =    (x circ y) circ z ;
  3. Con elemento neutro. Para todo elemento x que pertenezca al conjunto A, existe un único elemento e de A, que cumple:     forall x in A : quad    exists ! , e : quad    e circ x = x circ e = x
  4. Con elemento simétrico respecto de la operación  circ , si se cumple:     forall x in A , quad    exists bar{x} in A : quad    bar{x} circ x =    x circ bar{x} = e

Si además se cumple la propiedad conmutativa:

  1. Conmutatividad: un conjunto A tiene la propiedad conmutativa respecto a la operación interna  circ si:
    forall a, b in A: quad    a circ b =    b circ a ;

Se dice que es un grupo conmutativo o abeliano.

[editar] Notación

Es frecuente utilizar a la hora de definir grupos dos notaciones:

  • La notación aditiva.
    • Operación: +, llamada suma.
    • Elemento neutro: 0.
    • Elemento opuesto de un elemento x del grupo: -x.

Históricamente la terminología multiplicativa precedió a la aditiva. La operación de grupo no es necesariamente una adición o una multiplicación en el sentido que nos resulta familiar en la aritmética elemental. Por ejemplo, una operación de grupo puede ser una sustitución o una rotación. Cualquier conjunto de elementos y una operación que a dos elementos asocie una tercera en el conjunto, puede ser un grupo si cumple con las condiciones o propiedades de grupo pedidas. Sus elementos no son siempre números en el sentido ordinario de la aritmética elemental. Asimismo en algunos casos puede ser más cómodo utilizar alguna de las dos notaciones y en otros resulta indiferente. Es posible que se utilicen indistintamente, siempre y cuando esto no mueva a confusión. Cuando se trata de las operaciones familiares de suma y multiplicación, es impropio usar una notación opuesta a la operación.

[editar] Tipos de grupos

  • Grupo abeliano (o conmutativo). Se denomina grupo conmutativo o abeliano a aquel grupo que verifica la Propiedad conmutativa, es decir a cdot b = b cdot a forall a,b in G
    • Grupo abeliano con torsión Definición de torsión: Diremos que un elemento a in A posee torsión o, que es de torsión, si para algún n in mathbb {N}, a^n = 1 . Si a es de torsión, entonces el menor número natural n con la propiedad an = 1, coincide con el orden de a. Definición de grupo abeliano con torsión: Un grupo abeliano A se dice con torsión si es igual a 0 o si posee elementos no nulos de torsión.
    • Grupo abeliano de torsión. Un grupo abeliano A se dice de torsión si todo elemento de A es de torsión.
  • Grupo finito. Es un grupo con un número finito de elementos.
  • Grupo de Lie. Es un grupo que además tiene estructura de variedad diferenciable.
  • Grupo cíclico. Es un grupo conmutativo, finito o infinito, que puede ser generado por multiplicación reiterada de un sólo elemento.
  • Grupo libre.
  • Grupos de Klein.

[editar] Ejemplos

  • La suma define estructura de grupo conmutativo en el conjunto de los números enteros (mathbb{Z}), en el de los números racionales (mathbb{Q}), en los números reales (mathbb{R}) y en los números complejos (mathbb{C}). Los vectores libres del espacio, con la suma de vectores, forman un grupo conmutativo. La suma de matrices define una estructura de grupo conmutativo en las matrices con coeficientes reales (digamos) con un número de columnas y filas prefijado. Las funciones reales de variable real, con la suma de funciones, también forman un grupo conmutativo, al igual que las sucesiones de números reales con la suma de sucesiones.
  • El producto define estructura de grupo conmutativo en los números racionales no nulos, los números reales positivos, los números complejos de módulo 1, etc.
  • Las matrices cuadradas de n columnas con coeficientes reales y determinante distinto de cero forman un grupo con el producto de matrices, grupo que no es conmutativo cuando n>1.

Otros ejemplos de grupos no conmutativos se obtienen al considerar grupos de transformaciones, donde la operación es la composición de aplicaciones y el elemento neutro es la identidad:

Todos estos últimos ejemplos lo son del concepto de Grupo de Lie, que son los grupos definidos por operaciones continuas sobre curvas superficies o variedades de dimensión mayor.

La importancia crucial de la teoría de grupos tanto en Física como en Matemática radica en que los isomorfismos de cualquier estructura, de cualquier teoría, forman siempre un grupo y que, en los casos más importantes, los grupos están clasificados: se conocen listas que agotan todos los que hay. La clasificación de los grupos de Lie, llevada a cabo esencialmente por Élie Cartan, es un punto culminante de la matemática europea, sólo comparable a la construcción de los 5 poliedros regulares realizada por la matemática griega. Al igual que ésta última es la determinación de todas las figuras geométricas simétricas posibles, la clasificación de grupos es la determinación de todas las posibles simetrías de cualquier estructura. Así, podemos conocer a priori los grupos de automorfismos de cualquier teoría geométrica. Además, de acuerdo con el Programa de Erlangen de Felix Klein, este grupo de automorfismos reconstruye la correspondiente teoría geométrica.

Algo parecido sucede en Física, donde se ha descubierto que el grupo de simetrías del lagrangiano de un sistema determina propiedades fundamentales asociadas a las partículas elementales de dicho sistema. De hecho, aunque aún no conozcamos las teorías físicas por venir, la clasificación de grupos de Lie ya nos proporciona la lista de los posibles grupos de simetrías infinitesimales.

[editar] Curiosidades

Un grupo puede tener infinitos elementos, (como Z con la suma, o los números reales no nulos con el producto) o por el contrario tener un número finito de éstos.

Dado un número natural n, los restos que se obtienen al dividir por n (es decir, los números 0, 1, ..., n - 1) forman un grupo, donde la suma a + b es precisamente el resto al dividir la suma ordinaria por n. Este grupo se denota con Z/nZ y se suele llamar grupo de enteros módulo n. Así, el grupo Z/12Z es el que usamos para calcular con las horas de un reloj, y Z/24Z si queremos distinguir las horas de la mañana de la tarde.

Además, en Z/nZ el conjunto de los números primos relativos con n (denotado (Z/nZ)*) forma un grupo cuando la operación ab es el resto al dividir por n el producto usual. Sin embargo, se puede definir un grupo para otros números aunque no sean primos. Por ejemplo, el grupo (Z/12Z)* el cual sólo tiene 4 elementos. ¿Por qué sólo 4 elementos? Porque puesto que para ser un grupo, cada elemento ha de tener un inverso. Si tomamos algún número que tenga algún factor común con 12, por ejemplo el 10, éste no puede ser multiplicado por otro número de forma que el resto de la división entre 12 sea 1. Es decir, 10 no tendría inverso. Así, sólo son elementos del grupo (Z/12Z) aquellos números coprimos con 12. Si n hubiese sido primo, todos los menores que él serían coprimos con él, excepto el cero, luego su grupo tendría n - 1 elementos.

Se dice que un grupo es cíclico si verifica estar generado por un solo elemento; es decir, supongamos que un conjunto A es grupo con respecto a una operación *. Si existe un elemento g en A tal que cualquier otro elemento de A se obtiene operando g o su inverso g-1 reiteradamente:

A={ ..., g^{-r}, ..., g^{-1}, g^0=1, g^1=g, g^2, ..., g^r, ...}={g^r|rinmathbb{Z}},

entonces se dice que (A,*) es un grupo cíclico y que g es un generador de A, lo cual se denota por A=<g>.

La clasificación de grupos cíclicos afirma que los finitos son isomorfos a Z/nZ, y los infinitos con Z.

[editar] Véase también

Grupo
Monoide
Semigrupo
Magma
Operación matemática
Operación interna
Asociatividad
Elemento neutro
Elemento simétrico