Blogia
petalofucsia

Matemáticas

MATEMÁTICAS: CONJUNTO (ESCATOLOGÍA). En matemáticas, un conjunto es un concepto fundamental , y como tal no admite definición en términos de conceptos más fundamentales.[1] A veces se lo presenta como un concepto autoevidente, o por medio de sinónimos. Por ejemplo, a veces se dice que un conjunto es una colección de objetos.[1] Por objeto aquí no debe entenderse sólo las entidades físicas, como las mesas y las sillas, sino todo objeto en el sentido más amplio de la palabra: mesas, sillas, personas, ideas, creencias, lenguajes, letras, otros conjuntos, etc. A los objetos que pertenecen a un conjunto se los llama miembros o elementos del conjunto.

Conjunto

De Wikipedia, la enciclopedia libre

CONJUNTOS FRACTALES:

Conjuntos.

En matemáticas, un conjunto es un concepto fundamental , y como tal no admite definición en términos de conceptos más fundamentales.[1] A veces se lo presenta como un concepto autoevidente, o por medio de sinónimos. Por ejemplo, a veces se dice que un conjunto es una colección de objetos.[1] Por objeto aquí no debe entenderse sólo las entidades físicas, como las mesas y las sillas, sino todo objeto en el sentido más amplio de la palabra: mesas, sillas, personas, ideas, creencias, lenguajes, letras, otros conjuntos, etc. A los objetos que pertenecen a un conjunto se los llama miembros o elementos del conjunto.

Otras veces se toma a los axiomas de la teoría de conjuntos como proveyendo una definición implícita de lo que es un conjunto: un conjunto es todo aquello que cumple con los axiomas.[1] Sin embargo, esto conlleva el riesgo de que haya más de una interpretación que haga verdaderos a los axiomas (más de un modelo), y por lo tanto de que haya más de un definiendum

La cantidad de elementos de un conjunto puede ser finita o infinita.[2] Por ejemplo, el conjunto de los números naturales, que son infinitos, es un conjunto tanto como el conjunto de los planetas del Sistema Solar, que son ocho.

En un conjunto, el orden de los elementos es irrelevante.[2] El conjunto compuesto por Venus y Mercurio es el mismo que el compuesto por Mercurio y Venus. También es irrelevante si se repite un elemento.[2] Venus y Mercurio forman el mismo conjunto que Mercurio y Venus.

Los conjuntos no deben ser confundidos con los agregados. Los primeros son estudiados por la teoría de conjuntos, los segundos por la mereología. Los primeros son siempre entidades abstractas, los segundos no siempre. Por ejemplo, el conjunto de todas las personas no tiene ningún peso, pero el agregado de todas las personas sí.

Contenido

[ocultar]

Determinación de un conjunto [editar]

Un conjunto se puede determinar de dos maneras: por extensión y por comprensión

Por extensión [editar]

Un conjunto está determinado por extensión cuando se escriben uno a uno todos sus elementos. Por ejemplo, el conjunto de los números naturales menores que 9:

    A = {1, 2, 3, 4, 5, 6, 7, 8 } ,
Por comprensión [editar]

Un conjunto está determinado por comprensión cuando solamente se menciona una característica común de todos los elementos. Por ejemplo, el conjunto formado por las letras vocales del abecedario:

B = {x: x ; es ; una ; vocal } ,

Dos conjuntos son idénticos si, y sólo si, contienen los mismos elementos. Se puede obtener una descripción más detallada en la teoría de conjuntos.

Las aplicaciones de teoría de conjuntos son muy amplias, y baste con mencionar que se utiliza en el diseño de circuitos en electrónica digital; en cuestiones relacionadas con probabilidad; y sus conceptos están de manera implícita en la terminología utilizada en diseño de bases de datos, cuando se realizan las consultas. conjuntos de varios elementos.y esta determinado por comprension y por extension

Representación de un conjunto [editar]

A es subconjunto de B.
Unión de A y B.
Intersección de A y B.

Los conjuntos son uno de los conceptos básicos de la matemática. Como ya se ha dicho, un conjunto es, más o menos, una colección de objetos, denominados elementos. La notación estándar utiliza llaves {, y } alrededor de la lista de elementos para indicar el contenido del conjunto, como por ejemplo:

C = {rojo, amarillo, azul } , D = {rojo, azul, amarillo, rojo } , E = {x: x ; es ; un ; color ; primario } ,

Las tres líneas anteriores denotan el mismo conjunto. Como puede verse, es posible describir el mismo conjunto de diferentes maneras: o bien dando un listado de sus elementos (lo mejor para conjuntos finitos pequeños) o bien dando una propiedad que defina todos sus elementos. Por otro lado, no importa el orden, ni cuantas veces aparezcan en la lista sus elementos.

Si A y B son dos conjuntos y todo elemento x de A está contenido también en B, entonces se dice que A es un subconjunto de B. Todo conjunto tiene como subconjunto a sí mismo y al conjunto vacío, {}.

La unión de una colección de conjuntos:  S= { S_1 , S_2 , S_3 , ... } , es el conjunto de todos los elementos contenidos al menos una vez en los conjuntos   S_1 , S_2 , S_3 , ...  , y se representa:  S=  S_1 cup S_2 cup S_3 cup ...  ,

La intersección de una colección de conjuntos:  T= { T_1 , T_2 , T_3 , ... } , , es el conjunto de todos los elementos contenidos simultáneamente en todos los conjuntos:   T_1 , T_2 , T_3 , ...  , y se representa:  T=  T_1 cap T_2 cap T_3 cap ...  ,

los conjuntos también son nombrados según el número de elementos que tengan ejemplo conjunto vacío, conjunto unitario,conjunto finito,conjunto infinito. Algunos ejemplos de conjuntos de números son:

  1. Los números naturales utilizados para contar los elementos de un conjunto.
  2. Los números enteros.
  3. Los números racionales.
  4. Los números reales, que incluyen a los números irracionales.
  5. Los números complejos que proporcionan soluciones a ecuaciones del tipo: x2 + 1 = 0.

La teoría estadística se construye sobre la base de la teoría de conjuntos y la teoría de la probabilidad.

Relaciones entre conjuntos [editar]

Una categoría matemática consta de dos partes: los objetos y los morfismos. Cuando hablamos de la categoría de conjuntos, los objetos son los mismos conjuntos y un morfismo f entre dos objetos, digamos X e Y, en un tipo de relación entre X e Y dirigida i.e. un subconjunto del producto cartesiano de X con Y, en símbolos:

f subset X times Y

y ésta es una aplicación entre los conjuntos. conjunto de varios elementos y esta determinado por extension y por comprension.

Véase también [editar]

conjunto de varios elementos y esta determinado por comprension y por extension.

Notas y referencias [editar]

  1. a b c Jech, Thomas, «Set Theory», en Edward N. Zalta (en inglés), The Stanford Encyclopedia of Philosophy (Spring 2009 Edition edición), http://plato.stanford.edu/archives/spr2009/entries/set-theory/, consultado el 7 de octubre de 2009 
  2. a b c Weisstein, Eric W., «Set» (en inglés), MathWorld, http://mathworld.wolfram.com/Set.html, consultado el 7 de octumbre de 2009 

MATEMÁTICAS: EL TEOREMA DE EUCLIDES. Euclides (en griego Ευκλείδης, Eukleides) fue un matemático y geómetra griego, que vivió alrededor del 300 a.C. (ca. 325 - ca. 265 a. C.). Se le conoce como "El Padre de la Geometría".

Teorema de Euclides

De Wikipedia, la enciclopedia libre

Para otros usos de este término, véase Teorema de Euclides (desambiguación).

El teorema de Euclides sobre la infinitud de los números primos es el siguiente:

El conjunto formado por los números primos es infinito.


Contenido

[ocultar]

Demostración de Euclides [editar]

Euclides formuló la primera demostración en la proposición 20 del libro IX de su obra Elementos.[1] Una adaptación común de esta demostración original sigue así:

Se toma un conjunto arbitrario pero finito de números primos p1, p2, ···, pn, y se considera el producto de todos ellos más uno, q=p1p2 ··· pn+1. Este número es obviamente mayor que 1 y distinto de todos los primos pi de la lista. El número q puede ser primo o compuesto. Si es primo tendremos un número primo que no está en el conjunto original. Si, por el contrario, es compuesto, entonces existirá algún factor p que divida a q. Suponiendo que p es alguno de los pi, se deduce entonces que p divide a la diferencia q-p1p2 ··· pn=1, pero ningún número primo divide a 1, es decir, se ha llegado a un absurdo por suponer que p está en el conjunto original. La consecuencia es que el conjunto que se escogió no es exhaustivo, ya que existen números primos que no pertenecen a él, y esto es independiente del conjunto finito que se tome.

Existen numerosas demostraciones parecidas a ésta, que se formulan a continuación:

Reformulación de Kummer [editar]

Supóngase que existe una cantidad finita de números primos p1 < p2 < p3 < ... < pr. Sea N = p1·p2·p3·...·pr > 2. El entero N-1, al ser producto de primos, tiene un divisor pi que también es divisor de N; así que pi divide a N - (N-1) = 1. Esto es absurdo, por lo que tiene que haber infinitos números primos.

Demostración de Hermite [editar]

Sea n=1, 2, 3, ... y qn el factor primo más pequeño de n! + 1 para cada n. Como qn tiene que ser mayor que n, se deduce que esta sucesión contiene infinitos elementos distintos, y que por tanto existen infinitos números primos.

Demostración de Stieltjes [editar]

Supóngase que existe un número finito de números primos. Sea Q el producto de todos los números primos, y sean m y n dos enteros positivos con Q = mn.
Se tiene que todo número primo p divide, o bien a m, o bien a n, pero no a ambos, es decir, m y n son
primos entre sí. Entonces m+n no puede tener ningún divisor primo, pero como es estrictamente mayor que 1, debe ser un número primo que no divide a Q: contradicción.

Demostración de Goldbach (1730) [editar]

Esta demostración se basa en los números de Fermat, es decir, los números de la forma : F_{n} = 2^{2^n} + 1 .

Lema: Dos números de Fermat distintos Fm y Fn son primos entre sí.


(Goldbach, 1730)

Para cada número de Fermat Fn, escójase un divisor primo pn. Como los números de Fermat son primos entre sí, sabemos que dos primos cualesquiera pm y pn son distintos. Así, hay al menos un número primo pn por cada número de Fermat Fn, es decir, al menos un número primo por cada número entero n.

Esta demostración también es válida si se toma otra secuencia infinita de números naturales que son primos entre sí, como la secuencia de Sylvester.

Otras demostraciones [editar]

Demostración de Euler [editar]

Sea Q el producto de todos los primos. Sea φ(n) la función φ de Euler definida como el número de enteros menores que n y coprimos con él. Entonces φ(Q) es igual al producto de los números que resultan de restarle 1 a cada uno de los números primos, es decir,

φ(Q) = (2-1)·(3-1)·(5-1)·(7-1)·(11-1)·... = 1·2·4·6·10·...

Uno de los números enteros coprimos con Q es 1. Aun así, hay al menos otro entero en el intervalo [2,Q] que no tiene factor común con Q. Ese entero no puede tener ningún factor primo, porque están todos en Q, así que debe ser igual a 1, con lo que se llega a una contradicción.

Demostración topológica de Furstenberg (1955) [editar]

Defínase una topología en el conjunto de los números enteros empleando progresiones aritméticas (de -∞ a +∞). Esto genera un espacio topológico. Para cada número p, sea Ap el conjunto de todos los múltiplos de p. Ap es cerrado, porque su complementario es la unión de todas las demás progresiones aritméticas con diferencia p. Ahora, sea A la unión de las progresiones Ap. Si hay un número finito de números primos, entonces A es una unión finita de conjuntos cerrados, y por tanto A es cerrado. Sin embargo, todos los números enteros, salvo -1 y 1, son múltiplos de algún número primo, así que el complementario de A es {-1, 1} que no es abierto. Esto muestra que A no es una unión finita y que existen infinitos primos.

Referencias [editar]

  1.  , Euclides (1991-1996). «Vol. II, libro IX, proposición 20.», Elementos. Obra completa, Madrid, Editorial Gredos. ISBN 978-84-249-1463-9.

MATEMÁTICAS: LA INTEGRACIÓN ES UNIR PUNTOS INFINITAMENTE PEQUEÑOS Y TIENE APLICACIONES EN FÍSICA, ÁREAS Y GEOMETRÍA, AUNQUE EN MUCHAS OTRAS DISCIPLINAS EN ESTAS SON FUNDAMENTALES. La integración es un concepto fundamental de las matemáticas avanzadas, especialmente en los campos del cálculo y del análisis matemático. Básicamente, una integral es una suma de infinitos sumandos, infinitamente pequeños.

Integración

De Wikipedia, la enciclopedia libre

Para otros usos de este término, véase Integración (desambiguación) y INTEGRAL.
La integral definida de una función representa el área limitada por la gráfica de la función, con signo positivo cuando la función toma valores positivos y negativo cuando toma valores negativos.

La integración es un concepto fundamental de las matemáticas avanzadas, especialmente en los campos del cálculo y del análisis matemático. Básicamente, una integral es una suma de infinitos sumandos, infinitamente pequeños.

Dada una función f(x) de una variable real x y un intervalo [a,b] de la recta real, la integral

int_a^b f(x),dx

es igual al área de la región del plano xy limitada entre la gráfica de f, el eje x, y las líneas verticales x = a y x = b, donde son negativas las áreas por debajo del eje x.

La palabra "integral" también puede hacer referencia a la noción de primitiva: una función F, cuya derivada es la función dada f. En este caso se denomina integral indefinida, mientras que las integrales tratadas en este artículo son las integrales definidas. Algunos autores mantienen una distinción entre integrales primitivas e indefinidas.

Newton y Leibniz a finales del siglo XVII. A través del teorema fundamental del cálculo, que desarrollaron los dos de forma independiente, la integración se conecta con la derivación, y la integral definida de una función se puede calcular fácilmente una vez se conoce una antiderivada. Las integrales y las derivadas pasaron a ser herramientas básicas del cálculo, con numerosas aplicaciones en ciencia e ingeniería.

Bernhard Riemann dio una definición rigurosa de la integral. Se basa en un límite que aproxima el área de una región curvilínea a base de partirla en pequeños trozos verticales. A comienzos del siglo XIX, empezaron a aparecer nociones más sofisticadas de la integral, donde se han generalizado los tipos de las funciones y los dominios sobre los cuales se hace la integración. La integral curvilínea se define para funciones de dos o tres variables, y el intervalo de integración [a,b] se sustituye por una cierta curva que conecta dos puntos del plano o del espacio. En una integral de superficie, la curva se sustituye por un trozo de una superficie en el espacio tridimensional.

Las integrales de las formas diferenciales desempeñan un papel fundamental en la geometría diferencial moderna. Estas generalizaciones de la integral surgieron primero a partir de las necesidades de la física, y tienen un papel importante en la formulación de muchas leyes físicas cómo, por ejemplo, las de la electromagnetismo. Los conceptos modernos de integración se basan en la teoría matemática abstracta conocida como integral de Lebesgue, que fue desarrollada por Henri Lebesgue.

Contenido

[ocultar]

Historia [editar]

Integración antes del cálculo [editar]

La integración se puede trazar en el pasado hasta el antiguo Egipto, circa 1800 a. C., con el papiro de Moscú, donde se demuestra que ya se conocía una fórmula para calcular el volumen de un tronco piramidal. La primera técnica sistemática documentada capaz de determinar integrales es el método de exhausción de Eudoxo (circa 370 a. C.), que trataba de encontrar áreas y volúmenes a base de partirlos en un número infinito de formas para las cuales se conocieran el área o el volumen. Este método fue desarrollado y usado más adelante por Arquímedes, que lo empleó para calcular áreas de parábolas y una aproximación al área del círculo. Métodos similares fueron desarrollados de forma independiente en China alrededor del siglo III por Liu Hui, que los usó para encontrar el área del círculo. Más tarde, Zu Chongzhi usó este método para encontrar el volumen de una esfera. En el Siddhanta Shiromani, un libro de astronomía del siglo XII del matemático indio Bhaskara II, se encuentran algunas ideas de cálculo integral.

Hasta el siglo XVI no empezaron a aparecer adelantos significativos sobre el método de exhausción. En esta época, por un lado, con el trabajo de Cavalieri con su método de los indivisibles y, por otro lado, con los trabajos de Fermat, se empezó a desarrollar los fundamentos del cálculo moderno. A comienzos del siglo XVII, se produjeron nuevos adelantos con las aportaciones de Barrow y Torricelli, que presentaron los primeros indicios de una conexión entre la integración y la derivación.

Newton y Leibniz [editar]

Los principales adelantos en integración vinieron en el siglo XVII con el descubrimiento del teorema fundamental del cálculo, realizado de manera independiente por Newton y Leibniz. El teorema demuestra una conexión entre la integración y la derivación. Esta conexión, combinada con la facilidad, comparativamente hablando, del cálculo de derivadas, se puede usar para calcular integrales. En particular, el teorema fundamental del cálculo permite resolver una clase más amplia de problemas. También cabe destacar todo el marco estructural alrededor de las matemáticas que desarrollaron también Newton y Leibniz. El llamado cálculo infinitesimal permitió analizar, de forma precisa, funciones con dominios continuos. Posteriormente, este marco ha evolucionado hacia el cálculo moderno, cuya notación para las integrales procede directamente del trabajo de Leibniz.

Formalización de las integrales [editar]

Aunque Newton y Leibniz suministraron un enfoque sistemático a la integración, su trabajo carecía de un cierto nivel de rigor. Es memorable el ataque del obispo Berkeley calificando los infinitesimales como los "los fantasmas de las cantidades que se desvanecen". El cálculo adquirió una posición más firme con el desarrollo de los límites y, en la primera mitad del siglo XIX, recibió una fundamentación adecuada por parte de Cauchy. La integración fue rigurosamente formalizada por primera vez por Riemann, empleando límites. A pesar de que todas las funciones continuas fragmentadas y acotadas son Riemann integrables en un intervalo acotado, más tarde se consideraron funciones más generales para las cuales no se aplica la definición de Riemann, y Lebesgue formuló una definición diferente de la integral[1] basada en la teoría de la medida. También se propusieron otras definiciones de integral, que amplían las definiciones de Riemann y Lebesgue.

Notación [editar]

Isaac Newton usaba una pequeña barra vertical encima de una variable para indicar integración, o ponía la variable dentro de una caja. La barra vertical se confundía fácilmente con dot{x} o x',!, que Newton usaba para indicar la derivación, y además la notación "caja" era difícil de reproducir por los impresores; por ello, estas notaciones no fueron ampliamente adoptadas.

La notación moderna de las integrales indefinidas fue presentada por Gottfried Leibniz en 1675.[2] [3] Para indicar summa (en latín, "suma" o "total"), adaptó el símbolo integral, "∫", a partir de una letra S alargada. La notación moderna de la integral definida, con los límites arriba y abajo del signo integral, la usó por primera vez Joseph Fourier en Mémoires de la Academia Francesa, alrededor de 1819–20, reimpresa en su libro de 1822.[4] [5] En la notación matemática en árabe moderno, que se escribe de derecha a izquierda, se usa un signo integral invertido Signed'IntegracióArabic.png.[6]

Terminología y notación [editar]

Si una función tiene una integral, se dice que es integrable. De la función de la cual se calcula la integral se dice que es el integrando. Se denomina dominio de integración a la región sobre la cual se integra la función. Si la integral no tiene un dominio de integración, se considera indefinida (la que tiene dominio se considera definida). En general, el integrando puede ser una función de más de una variable, y el dominio de integración puede ser un área, un volumen, una región de dimensión superior, o incluso un espacio abstracto que no tiene estructura geométrica en ningún sentido usual.

El caso más sencillo, la integral de una función real f de una variable real x sobre el intervalo [a, b], se escribe

int_a^b f(x),dx .

El signo ∫, una "S" larga, representa la integración; a y b son el límite inferior y el límite superior de la integración y definen el dominio de integración; f es el integrando, que se tiene que evaluar al variar x sobre el intervalo [a,b]; y dx puede tener diferentes interpretaciones dependiendo de la teoría que se emplee. Por ejemplo, puede verse simplemente como una indicación de que x es la variable de integración, como una representación de los pesos en la suma de Riemann, una medida (en la integración de Lebesgue y sus extensiones), un infinitesimal (en análisis no estándar) o como una cantidad matemática independiente: una forma diferencial. Los casos más complicados pueden variar la notación ligeramente.

Conceptos y aplicaciones [editar]

Las integrales aparecen en muchas situaciones prácticas. Consideremos una piscina. Si es rectangular, entonces, a partir de su longitud, anchura y profundidad, se puede determinar fácilmente el volumen de agua que puede contener (para llenarla), el área de la superficie (para cubrirla), y la longitud de su borde (para atarla). Pero si es ovalada con un fondo redondeado, todas estas cantidades piden integrales. Al comienzo puede ser suficiente con aproximaciones prácticas, pero al final harán falta respuestas exactas y rigurosas a este tipo de problemas.

Aproximaciones a la integral de √x entre 0 y 1, con  5 muestras por la izquierda (arriba) y  12 muestras por la derecha (abajo).

Para empezar, se considerará la curva y = f(x) entre x = 0 y x = 1, con f(x) = √x. La pregunta es:

¿Cuál es el área bajo la función f, al intervalo desde 0 hasta 1?

Esta área (todavía desconocida) será la integral de f. La notación para esta integral será

 int_0^1 sqrt x , dx ,!.

Como primera aproximación, se mira al cuadrado unidad dado por los lados x=0 hasta x=1 y y=f(0)=0 y y=f(1)=1. Su área es exactamente 1. Tal como se puede ver, el verdadero valor de la integral tiene que ser de alguna forma más pequeño. Reduciendo el ancho de los rectángulos empleados para hacer la aproximación se obtendrá un mejor resultado; así, se parte el intervalo en cinco pasos, empleando para la aproximación los puntos 0, 15, 25, así hasta 1. Se ajusta una caja cada paso empleando la altura del lado derecho de cada pedazo de la curva, así √15, √25, y así hasta √1 = 1. Sumando las áreas de estos rectángulos, se obtiene una mejor aproximación de la integral que se está buscando,

sqrt {frac {1} {5}} left ( frac {1} {5} - 0 right ) + sqrt {frac {2} {5}} left ( frac {2} {5} - frac {1} {5} right ) + ldots + sqrt {frac {5} {5}} left ( frac {5} {5} - frac {4} {5} right ) approx 0,7497,!

Nótese que se está sumando una cantidad finita de valores de la función f, multiplicados por la diferencia entre dos puntos de aproximación sucesivos. Se puede ver fácilmente que la aproximación continúa dando un valor más grande que el de la integral. Empleando más pasos se obtiene una aproximación más ajustada, pero no será nunca exacta: si en vez de 5 subintervalos se toman doce y se coge el valor de la izquierda, tal como se muestra en el dibujo, se obtiene un valor aproximado para el área, de 0,6203, que en este caso es demasiado pequeño. La idea clave es la transición desde la suma de una cantidad finita de diferencias de puntos de aproximación multiplicados por los respectivos valores de la función, hasta usar pasos infinitamente finos, o infinitesimales. La notación

 int f(x) , dx ,!

concibe la integral como una suma ponderada (denotada por la "S" alargada), de los valores de la función (como las alzadas, y = f(x)) multiplicados por pasos de anchura infinitesimal, los llamados diferenciales (indicados por dx).

Con respecto al cálculo real de integrales, el teorema fundamental del cálculo, debido a Newton y Leibniz, es el vínculo fundamental entre las operaciones de derivación e integración. Aplicándolo a la curva raíz cuadrada, se tiene que mirar la función relacionada F(x) = 23x3/2 y simplemente coger F(1)−F(0), donde 0 y 1 son las fronteras del intervalo [0,1]. (Éste es un ejemplo de una regla general, que dice que para f(x) = xq, con q ≠ −1, la función relacionada, la llamada primitiva es F(x) = (xq+1)/(q+1).) De modo que el valor exacto del área bajo la curva se calcula formalmente como

 int_0^1 sqrt x cdot dx = int_0^1 x^{frac{1}{2}} cdot dx = int_0^1 d left({textstyle frac 2 3} x^{frac{3}{2}}right) = {textstyle frac 2 3}.

Históricamente, después de que los primeros esfuerzos de definir rigurosamente los infinitesimales no fructificasen, Riemann definió formalmente las integrales como el límite de sumas ponderadas, de forma que el dx sugiere el límite de una diferencia (la anchura del intervalo). La dependencia de la definición de Riemann de los intervalos y la continuidad motivó la aparición de nuevas definiciones, especialmente la integral de Lebesgue, que se basa en la habilidad de extender la idea de "medida" de maneras mucho más flexibles. Así, la notación

 int_A f(x) , dmu ,!

hace referencia a una suma ponderada de valores en que se divide la función, donde μ mide el peso que se tiene que asignar a cada valor. (Aquí A indica la región de integración.) La geometría diferencial, con su "cálculo de variedades", proporciona otra interpretación a esta notación familiar. Ahora f(x) y dx pasan a ser una forma diferencial, ω = f(x)dx, aparece un nuevo operador diferencial d, conocido como la derivada exterior, y el teorema fundamental pasa a ser el (más general) teorema de Stokes,

 int_{A} bold{d} omega = int_{part A} omega , ,!

a partir del cual se deriva el teorema de Green, el teorema de la divergencia, y el teorema fundamental del cálculo.

Recientemente, los infinitesimales han reaparecido con rigor, a través de innovaciones modernas como el análisis no estándar. Estos métodos no sólo reivindican la intuición de los pioneros, también llevan hacia las nuevas matemáticas, y hacen más intuitivo y comprensible el trabajo con cálculo infinitesimal.

A pesar de que hay diferencias entre todas estas concepciones de la integral, hay un solapamiento considerable. Así, el área de la piscina oval se puede hallar como una elipse geométrica, como una suma de infinitesimales, como una integral de Riemann, como una integral de Lebesgue, o como una variedad con una forma diferencial. El resultado obtenido con el cálculo será el mismo en todos los casos.

Integral de Riemann [editar]

Artículo principal: Integral de Riemann
Integral con el planteamiento de Riemann hace una suma basada en una partición etiquetada, con posiciones de muestreo y anchuras irregulares (el máximo en rojo). El verdadero valor es 3,76; la estimación obtenida es 3,648.

La integral de Riemann se define en términos de sumas de Riemann de funciones respecto de particiones etiquetadas de un intervalo. Sea [a,b] un intervalo cerrado de la recta real; entonces una partición etiquetada de [a,b] es una secuencia finita

 a = x_0 le t_1 le x_1 le t_2 le x_2 le cdots le x_{n-1} le t_n le x_n = b . ,!
Convergencia de sumatorios de Riemann a medida en que se parten los intervalos, cuando se muestrea a  la derecha,  el mínimo,  el máximo, o  la izquierda.

Esto divide al intervalo [a,b] en i subintervalos [xi−1, xi], cada uno de los cuales es "etiquetado" con un punto especificado ti de; [xi−1, xi]. Sea Δi = xixi−1 la anchura del subintervalo i; el paso de esta partición etiquetada es el ancho del subintervalo más grande obtenido por la partición, maxi=1…n Δi. Un sumatorio de Riemann de una función f respecto de esta partición etiquetada se define como

sum_{i=1}^{n} f(t_i) Delta_i ;

Así cada término del sumatorio es el área del rectángulo con altura igual al valor de la función en el punto especificado del subintervalo dado, y de la misma anchura que la anchura del subintervalo. La integral de Riemann de una función f sobre el intervalo [a,b] es igual a S si:

Para todo ε > 0 existex δ > 0 tal que, para cualquier partición etiquetada [a,b] con paso más pequeño que δ, se tiene left| S - sum_{i=1}^{n} f(t_i)Delta_i right| < varepsilon

Cuando las etiquetas escogidas dan el máximo (o mínimo) valor de cada intervalo, el sumatorio de Riemann pasa a ser un sumatorio de Darboux superior (o inferior), lo que sugiere la estrecha conexión que hay entre la integral de Riemann y la integral de Darboux.

Integral de Lebesgue [editar]

Artículo principal: Integral de Lebesgue

La integral de Riemann no está definida para un ancho abanico de funciones y situaciones de importancia práctica (y de interés teórico). Por ejemplo, la integral de Riemann puede integrar fácilmente la densidad para de obtener la masa de una viga de acero, pero no se puede adaptar a una bola de acero que se apoya encima. Esto motiva la creación de otras definiciones, bajo las cuales se puede integrar un surtido más amplio de funciones.[7] La integral de Lebesgue, en particular, logra una gran flexibilidad a base de centrar la atención en los pesos de la suma ponderada.

Así, la definición de la integral de Lebesgue empieza con una medida, μ. En el caso más sencillo, la medida de Lebesgue μ(A) de un intervalo A = [a, b] es su ancho, ba, así la integral de Lebesgue coincide con la integral de Riemann cuando existen ambas. En casos más complicados, los conjuntos a medir pueden estar altamente fragmentados, sin continuidad y sin ningún parecido a intervalos.

Para explotar esta flexibilidad, la integral de Lebesgue invierte el enfoque de la suma ponderada. Como expresa Folland:[8] "Para calcular la integral de Riemann de f, se particiona el dominio [a, b] en subintervalos", mientras que en la integral de Lebesgue, "de hecho lo que se está partiendo es el recorrido de f".

Un enfoque habitual define primero la integral de la función característica de un conjunto mensurable A por:

int 1_A dmu = mu(A).

Esto se extiende por linealidad a las funciones escalonadas simples, que sólo tienen un número finito n, de valores diferentes no negativos:

begin{align}  int s , dmu &{}= intleft(sum_{i=1}^{n} a_i 1_{A_i}right) dmu    &{}= sum_{i=1}^{n} a_iint 1_{A_i} , dmu    &{}= sum_{i=1}^{n} a_i , mu(A_i) end{align}

(donde la imagen de Ai al aplicarle la función escalonada s es el valor constante ai). Así, si E es un conjunto mesurable, se define

 int_E s , dmu = sum_{i=1}^{n} a_i , mu(A_i cap E) .

Entonces, para cualquier función mesurable no negativa f se define

int_E f , dmu = supleft{int_E s , dmu, colon 0 leq sleq ftext{ y } stext{ es una funcion escalonada}right};

Es decir, se establece que la integral de f es el supremo de todas las integrales de funciones escalonadas que son más pequeñas o iguales que f. Una función mesurable cualquiera f, se separa entre sus valores positivos y negativos a base de definir

begin{align}  f^+(x) &{}= begin{cases}                f(x), & text{si } f(x) > 0                 0, & text{de otro modo}              end{cases}   f^-(x) &{}= begin{cases}                -f(x), & text{si } f(x) < 0                 0, & text{de otro modo}              end{cases} end{align}

Finalmente, f es Lebesgue integrable si

int_E |f| , dmu < infty , ,!

y entonces se define la integral por

int_E f , dmu = int_E f^+ , dmu - int_E f^- , dmu . ,!

Cuando el espacio métrico en el que están definidas las funciones es también un espacio topológico localmente compacto (como es el caso de los números reales R), las medidas compatibles con la topología en un sentido adecuado (medidas de Radon, de las cuales es un ejemplo la medida de Lebesgue) una integral respecto de ellas se puede definir de otra manera, se empieza a partir de las integrales de las funciones continuas con soporte compacto. De forma más precisa, las funciones compactamente soportadas forman un espacio vectorial que comporta una topología natural, y se puede definir una medida (Radon) como cualquier funcional lineal continuo de este espacio; entonces el valor de una medida en una función compactamente soportada, es también, por definición, la integral de la función. Entonces se continúa expandiendo la medida (la integral) a funciones más generales por continuidad, y se define la medida de un conjunto como la integral de su función característica. Este es el enfoque que toma Bourbaki[9] y cierto número de otros autores. Para más detalles, véase medidas de Radon.

Otras integrales [editar]

A pesar de que las integrales de Riemann y Lebesgue son las definiciones más importantes de integral, hay unas cuántas más, por ejemplo:

Propiedades de la integración [editar]

Linealidad [editar]

  • El conjunto de las funciones Riemann integrables en un intervalo cerrado [a, b] forman un espacio vectorial con las operaciones de suma (la función suma de otras dos es la función que a cada punto le hace corresponder la suma de las imágenes de este punto por cada una de las otras dos) y la multiplicación por un escalar. La operación integración
 f mapsto int_a^b f ; dx es un funcional lineal de este espacio vectorial. Así, en primer lugar, el conjunto de funciones integrables es cerrado con la combinación lineal, y en segundo lugar, la integral de una combinación lineal es la combinación lineal de las integrales,  int_a^b (alpha f + beta g)(x) , dx = alpha int_a^b f(x) ,dx + beta int_a^b g(x) , dx. ,
  • De forma parecida, el conjunto de las funciones reales Lebesgue integrables en un espacio métrico E dado, con la medida μ es cerrado respecto de las combinaciones lineales y por lo tanto forman un espacio vectorial, y la integral de Lebesgue
 fmapsto int_E f dmu es un funcional lineal de este espacio vectorial, de forma que  int_E (alpha f + beta g) , dmu = alpha int_E f , dmu + beta int_E g , dmu.  fmapstoint_E f dmu, , que es compatible con las combinaciones lineales. En esta situación, la linealidad se sostiene para el subespacio de las funciones, cuya integral es un elemento de V (es decir, las integrales "finitas"). Los casos más importantes surgen cuando K es R, C, o una extensión finita del campo Qp de números p-ádicos, y V es un espacio vectorial de dimensión finita sobre K, y cuando K=C y V es un espacio de Hilbert complejo.

La linealidad, junto con algunas propiedad naturales de continuidad y la normalización para ciertas clases de funciones "simples", se pueden usar para dar una definición alternativa de integral. Este es el enfoque de Daniell para el caso de funciones reales en un conjunto X, generalizado por Bourbaki a funciones que toman valores en un espacio vectorial topológicamente compacto. Véase Hildebrandt (1953)[10] para una caracterización axiomática de la integral.

Desigualdades con integrales [editar]

Se verifican varias desigualdades generales para funciones Riemann integrables definidas en un intervalo cerrado y acotado [a, b] y se pueden generalizar a otras nociones de integral (Lebesgue y Daniell).

  • Cotas superiores e inferiores. Una función f integrable en [a, b], es necesariamente acotada en el intervalo. Por lo tanto hay dos números reales m y M tales que mf (x) ≤ M para todo x de [a, b]. Dado que los sumatorios superior e inferior de f sobre [a, b] son también acotados para m(ba) y M(ba) respectivamente, de aquí resulta que
 m(b - a) leq int_a^b f(x) , dx leq M(b - a).
  • Desigualdades entre funciones. Si f(x) ≤ g(x) para todo x de [a, b] entonces cada uno de los sumatorios superior e inferior de f son acotados inferior y superiormente por los sumatorios superior e inferior de g respectivamente. Así
 int_a^b f(x) , dx leq int_a^b g(x) , dx. Esto es una generalización de las desigualdades anteriores, dado que M '(b a) es la integral de la función constante con valor M en el intervalo [a, b].
  • Subintervalos. Si [c, d] es un subintervalo de [a, b] y f(x) es no negativa para todo x, entonces
 int_c^d f(x) , dx leq int_a^b f(x) , dx.
  • Productos y valores absolutos de funciones. Si f y g son dos funciones, entonces podemos emplear su producto, potencias y valores absolutos:
  (fg)(x)= f(x) g(x), ; f^2 (x) = (f(x))^2, ; |f| (x) = |f(x)|., Si f es Riemann integrable en [a, b] entonces lo mismo se cumple para |f|, y left| int_a^b f(x) , dx right| leq int_a^b | f(x) | , dx. Es más, si f y g son ambas Riemann integrables entonces f 2, g 2, y fg son también Riemann integrables, y left( int_a^b (fg)(x) , dx right)^2 leq left( int_a^b f(x)^2 , dx right) left( int_a^b g(x)^2 , dx right). Esta desigualdad se conoce como desigualdad de Cauchy-Schwarz, y desempeña un papel fundamental en la teoría de los espacios de Hilbert, donde el lado de la derecha se interpreta como el producto escalar de dos funciones integrables f y g en el intervalo [a, b].
  • Desigualdad de Hölder. Si p y q son dos números reales, 1 ≤ p, q ≤ ∞ con 1/p + 1/q = 1, y f y g son dos funciones Riemann integrables. Entonces las funciones |f|p y |g|q también son integrables y se cumple la desigualdad de Hölder:
left|int f(x)g(x),dxright| leq  left(int left|f(x)right|^p,dx right)^{1/p} left(intleft|g(x)right|^q,dxright)^{1/q}. Para el caso de p = q = 2, la desigualdad de Hölder pasa a ser la desigualdad de Cauchy–Schwarz.
  • Desigualdad de Minkowski. Si p ≥ 1 es un número real y f y g son funciones Riemann integrables. Entonces |f|p, |g|p y |f + g|p son también Riemann integrables y se cumple la desigualdad de Minkowski:
left(int left|f(x)+g(x)right|^p,dx right)^{1/p} leq  left(int left|f(x)right|^p,dx right)^{1/p} +  left(int left|g(x)right|^p,dx right)^{1/p}. Una desigualdad análoga a ésta para la integral de Lebesgue se usa en la construcción de los espacios Lp.

Convenciones [editar]

En esta sección f es una función real Riemann integrable. La integral

 int_a^b f(x) , dx

Sobre un intervalo [a, b] está definida si a < b. Esto significa que los sumatorios superiores e inferiores de la función f se evalúan sobre una partición a = x0x1 ≤ . . . ≤ xn = b cuyos valores xi son crecientes. Geométricamente significa que la integración tiene lugar "de izquierda a derecha", evaluando f dentro de intervalos [xi , xi +1] donde el intervalo con un índice más grande queda a la derecha del intervalo con un índice más pequeño. Los valores a y b, los puntos extremos del intervalo, se denominan límites de integración de f. Las integrales también se pueden definir si a > b:

  • Inversión de los límites de integración. si a > b entonces se define
int_a^b f(x) , dx = - int_b^a f(x) , dx.

Ello, con a = b, implica:

  • Integrales sobre intervalos de longitud cero. si a es un número real entonces
int_a^a f(x) , dx = 0.

La primera convención es necesaria al calcular integrales sobre subintervalos de [a, b]; la segunda dice que una integral sobre un intervalo degenerado, o un punto, tiene que ser cero. Un motivo para la primera convención es que la integrabilidad de f sobre un intervalo [a, b] implica que f es integrable sobre cualquier subintervalo [c, d], pero en particular las integrales tienen la propiedad de que:

  • Aditividad de la integración sobre intervalos. si c es cualquier elemento de [a, b], entonces
 int_a^b f(x) , dx = int_a^c f(x) , dx + int_c^b f(x) , dx.

Con la primera convención la relación resultante

begin{align}  int_a^c f(x) , dx &{}= int_a^b f(x) , dx - int_c^b f(x) , dx   &{} = int_a^b f(x) , dx + int_b^c f(x) , dx end{align}

queda bien definida para cualquier permutación cíclica de a, b, y c.

En lugar de ver lo anterior como convenciones, también se puede adoptar el punto de vista de que la integración se hace sólo sobre variedades orientadas. Si M es una tal forma m-dimensional orientada, y M' es la misma forma con orientación opuesta y ω es una m-forma, entonces se tiene (véase más abajo la integración de formas diferenciales):

int_M omega = - int_{M'} omega ,.

Teorema fundamental del cálculo [editar]

El teorema fundamental del cálculo es la afirmación de que la derivación y la integración son operaciones inversas: si una función continua primero se integra y luego se deriva, se recupera la función original. Una consecuencia importante, en ocasiones denominada el segundo teorema fundamental del cálculo, permite calcular integrales a base de emplear una primitiva de la función a integrar.

Enunciado de los teoremas [editar]

  • Teorema fundamental del cálculo. Sea f una función real integrable definida en un intervalo cerrado [a, b]. Si se define F para cada x de [a, b] por
F(x) = int_a^x f(t), dt. entonces F es continua en [a, b]. Si f es continua en x de [a, b], entonces F es derivable en x, y F ′(x) = f(x).
  • Segundo teorema fundamental del cálculo. Sea f una función real, integrable definida en un intervalo cerrado [a, b]. Si F es una función tal que F ′(x) = f(x) para todo x de [a, b] (es decir, F es una primitiva de f), entonces
int_a^b f(t), dt = F(b) - F(a).
  • Corolario. Si f es una función continua en [a, b], entonces f es integrable en [a, b], y F, definida por
F(x) = int_a^x f(t) , dt es una primitiva de f en [a, b]. Además, int_a^b f(t) , dt = F(b) - F(a).

Extensiones [editar]

Integrales impropias [editar]

Artículo principal: Integral impropia
La integral impropia
int_{0}^{infty} frac{dx}{(x+1)sqrt{x}} = pi
tiene intervalos no acotados tanto en el dominio como en el recorrido.

Una integral de Riemann "propia" supone que el integrando está definido y es finito en un intervalo cerrado y acotado, cuyos extremos son los límites de integración. Una integral impropia aparece cuando una o más de estas condiciones no se satisface. En algunos casos, estas integrales se pueden definir tomando el límite de una sucesión de integrales de Riemann propias sobre intervalos sucesivamente más largos.

Si el intervalo no es acotado, por ejemplo en su extremo superior, entonces la integral impropia es el límite cuando el punto final tiende a infinito.

int_{a}^{infty} f(x)dx = lim_{b to infty} int_{a}^{b} f(x)dx

Si el integrando sólo está definido en un intervalo finito semiabierto, por ejemplo (a,b], entonces, otra vez el límite puede suministrar un resultado finito.

int_{a}^{b} f(x)dx = lim_{epsilon to 0} int_{a+epsilon}^{b} f(x)dx

Esto es, la integral impropia es el límite de integrales propias cuando uno de los puntos extremos del intervalo de integración se aproxima, ya sea a un número real especificado, o ∞, o −∞. En casos más complicados, hacen falta límites en los dos puntos extremos o en puntos interiores.

Por ejemplo, la función tfrac{1}{(x+1)sqrt{x}} integrada desde 0 a ∞ (imagen de la derecha). En el extremo inferior, a medida que x se acerca a 0 la función tiende a ∞, y el extremo superior es él mismo ∞, a pesar de que la función tiende a 0. Así, esta es una integral doblemente impropia. Integrada, por ejemplo, desde 1 hasta 3, con un sumatorio de Riemann es suficiente para obtener un resultado de tfrac{pi}{6}. Para integrar desde 1 hasta ∞, un sumatorio de Riemann no es posible. Ahora bien, cualquier límite superior finito, por ejemplo t (con t > 1), da un resultado bien definido, tfrac{pi}{2} - 2arctan tfrac{1}{sqrt{t}}. Este resultado tiene un límite finito cuando t tiende a infinito, que es tfrac{pi}{2}. De forma parecida, la integral desde 13 hasta a 1 admite también un sumatorio de Riemann, que por casualidad da de nuevo tfrac{pi}{6}. Sustituyendo 13 por un valor positivo arbitrario s (con s < 1) resulta igualmente un resultado definido y da -tfrac{pi}{2} + 2arctantfrac{1}{sqrt{s}}. Éste, también tiene un límite finito cuando s tiende a cero, que es tfrac{pi}{2}. Combinando los límites de los dos fragmentos, el resultado de esta integral impropia es

begin{align}  int_{0}^{infty} frac{dx}{(x+1)sqrt{x}} &{} = lim_{s to 0} int_{s}^{1} frac{dx}{(x+1)sqrt{x}}    + lim_{t to infty} int_{1}^{t} frac{dx}{(x+1)sqrt{x}}    &{} = lim_{s to 0} left( - frac{pi}{2} + 2 arctanfrac{1}{sqrt{s}} right)    + lim_{t to infty} left( frac{pi}{2} - 2 arctanfrac{1}{sqrt{t}} right)    &{} = frac{pi}{2} + frac{pi}{2}    &{} = pi . end{align}

Este proceso no tiene el éxito garantizado; un límite puede no existir, o puede ser infinito. Por ejemplo, sobre el intervalo cerrado de 0 a 1 la integral de tfrac{1}{x^2} no converge; y sobre el intervalo abierto del 1 a ∞ la integral de tfrac{1}{sqrt{x}} no converge.

La integral impropia
int_{-1}^{1} frac{dx}{sqrt[3]{x^2}} = 6
no está acotada internamente, pero ambos límites (por la derecha y por la izquierda) existen.

También puede pasar que un integrando no esté acotado en un punto interior, en este caso la integral se ha de partir en este punto, y el límite de las integrales de los dos lados han de existir y han de ser acotados. Así

begin{align}  int_{-1}^{1} frac{dx}{sqrt[3]{x^2}} &{} = lim_{s to 0} int_{-1}^{-s} frac{dx}{sqrt[3]{x^2}}    + lim_{t to 0} int_{t}^{1} frac{dx}{sqrt[3]{x^2}}    &{} = lim_{s to 0} 3(1-sqrt[3]{s}) + lim_{t to 0} 3(1-sqrt[3]{t})    &{} = 3 + 3    &{} = 6. end{align}

A la integral similar

 int_{-1}^{1} frac{dx}{x} ,!

no se le puede asignar un valor de esta forma, dado que las integrales por encima y por debajo de cero no convergen independientemente (en cambio, véase valor principal de Cauchy.)

Integración múltiple [editar]

Artículo principal: Integral múltiple
Integral doble como el volumen limitado por una superficie.

Las integrales se pueden calcular sobre regiones diferentes de los intervalos. En general, una integral sobre un conjunto E de una función f se escribe:

int_E f(x) , dx.

Aquí x no hace falta que sea necesariamente un número real, sino que puede ser cualquier otra cantidad apropiada, por ejemplo, un vector de R3. El teorema de Fubini demuestra que estas integrales pueden reescribirse como una integral iterada. En otras palabras, la integral se puede calcular a base de integrar las coordenadas una por una.

De la misma manera que la integral definida de una función positiva representa el área de la región encerrada entre la gráfica de la función y el eje x, la integral doble de una función positiva de dos variables representa el volumen de la región comprendida entre la superficie definida por la función y el plano que contiene su dominio. (El mismo volumen puede obtenerse a través de una integral triple — la integral de la función de tres variables — de la función constante f(x, y, z) = 1 sobre la región mencionada antes entre la superficie y el plano, lo mismo se puede hacer con una integral doble para calcular una superficie.) Si el número de variables es mayor, entonces la integral representa un hipervolumen, el volumen de un sólido de más de tres dimensiones que no se puede representar gráficamente.

Por ejemplo, el volumen del paralelepípedo de caras 4 × 6 × 5 se puede obtener de dos maneras:

  • Con la integral doble
iint_D 5  dx, dy de la función f(x, y) = 5 calculada en la región D del plano xy que es la base del paralelepípedo.
  • Con la integral triple
iiint_mathrm{paralelepipedo} 1 , dx, dy, dz de la función constante 1 calculada sobre el mismo paralelepípedo (a pesar de que este segundo método también se puede interpretar como el hipervolumen de un hiperparalelepípedo de cuatro dimensiones que tiene como base el paralelepípedo en cuestión y una altura constante de 1, como la altura es 1 el volumen coincide con el área de la base).

Puesto que es imposible calcular la antiderivada de una función de más de una variable, no existen las integrales múltiples indefinidas: tales integrales son todas definidas.

Integrales de línea [editar]

Artículo principal: Integral de línea
Una integral de línea acumula elementos a lo largo de una curva.

El concepto de integral se puede extender a dominios de integración más generales, tales como las líneas curvas y las superficies. Estas integrales se conocen como integrales de línea e integrales de superficie respectivamente. Tienen importantes aplicaciones en la física cuando se trata con campos vectoriales.

Una integral de línea es una integral donde la función a integrar es evaluada a lo largo de una curva. Se utilizan varias integrales curvilíneas diferentes. En el caso de una curva cerrada también se la denomina integral de contorno.

La función a integrar puede ser un campo escalar o un campo vectorial. El valor de la integral curvilínea es la suma de los valores del campo en los puntos de la línea, ponderados por alguna función escalar de la curva (habitualmente la longitud del arco o, en el caso de un campo vectorial, el producto escalar del campo vectorial por un vector diferencial de la curva). Esta ponderación distingue las integrales curvilíneas de las integrales más sencillas definidas sobre intervalos.

Muchas fórmulas sencillas de la física tienen de forma natural análogas continuas en términos de integrales de línea; por ejemplo, el hecho de que el trabajo sea igual a la fuerza multiplicada por la distancia se puede expresar (en términos de cantidades vectoriales) como:

W=vec Fcdotvec d

que tiene su paralelismo en la integral de línea

W=int_C vec Fcdot dvec s

que acumula los componentes vectoriales a lo largo de un camino continuo, y así calcula el trabajo realizado por un objeto al moverse a través de un campo, como por ejemplo un campo eléctrico o un campo gravitatorio.

Integrales de superficie [editar]

Artículo principal: Integral de superficie
La definición de las integrales de superficie descansa en la división de la superficie en pequeños elementos de superficie.

Una integral de superficie es una integral definida calculada sobre una superficie (que puede ser un conjunto curvado en el espacio; se puede entender como la integral doble análoga a la integral de línea. La función a integrar puede ser un campo escalar o un campo vectorial. El valor de la integral de superficie es la suma ponderada de los valores del campo en todos los puntos de la superficie. Esto se puede conseguir a base de dividir la superficie en elementos de superficie, los cuales proporcionan la partición para los sumatorios de Riemann.

Como ejemplo de las aplicaciones de las integrales de superficie, se puede considerar un campo vectorial v sobre una superficie S; es decir, para cada punto x de S, v(x) es un vector. Imagínese que se tiene un fluido fluyendo a través de S, de forma que v(x) determina la velocidad del fluido en el punto x. El caudal se define como la cantidad de fluido que fluye a través de S en la unidad de tiempo. Para hallar el caudal, hay que calcular el producto escalar de v por el vector unitario normal a la superficie S en cada punto, lo que nos dará un campo escalar, que integramos sobre la superficie:

int_S {mathbf v}cdot ,d{mathbf {S}}.

El caudal de fluido de este ejemplo puede ser de un fluido físico como el agua o el aire, o de un flujo eléctrico o magnético. Así, las integrales de superficie tienen aplicaciones en la física, en particular en la teoría clásica del electromagnetismo.

Integrales de formas diferenciales [editar]

Artículo principal: Forma diferencial

Una forma diferencial es un concepto matemático en los campos del cálculo multivariable, topología diferencial y tensores. La notación moderna de las formas diferenciales, así como la idea de las formas diferenciales como el producto exterior de derivadas exteriores formando un álgebra exterior, fue presentada por Élie Cartan.

Se empieza trabajando en un conjunto abierto de Rn. Una 0-forma se define como una función infinitamente derivable f. Cuando se integra una función f sobre un subespacio de m-dimensional S de Rn, se escribe como

int_S f,dx^1 cdots dx^m.

(Los superíndices no son exponentes.) Se puede considerar que dx1 hasta dxn son objetos formales ellos mismos, más que etiquetas añadidas para hacer que la integral se asemeje a los sumatorios de Riemann. De forma alternativa se pueden ver como covectores, y por lo tanto como una medida de la "densidad" (integrable en un sentido general). A dx1, …,dxn se las denomina 1-formas básicas.

Se define el conjunto de todos estos productos como las 2-formas básicas, y de forma similar se define el conjunto de los productos de la forma dxadxbdxc como las 3-formas básicas. Una k-forma general es por lo tanto una suma ponderada de k-formas básicas, donde los pesos son las funciones infinitamente derivables f. Todas juntas forman un espacio vectorial, siendo las k-formas básicas los vectores base, y las 0-formas (funciones infinitamente derivables) el campo de escalares. El producto exterior se extiende a las k-formas de la forma natural. Sobre Rn como máximo n covectores pueden ser linealmente independientes, y así una k-forma con k > n será siempre cero por la propiedad alternante.

Además del producto exterior, también existe el operador derivada exterior d. Este operador hace corresponder a las k-formas (k+1)-formas. Para una k-forma ω = f dxa sobre Rn, se define la acción de d por:

{bold d}{omega} = sum_{i=1}^n frac{partial f}{partial x_i} dx^i wedge dx^a.

con extensión a las k-formas generales que se dan linealmente.

Este planteamiento más general permite un enfoque de la integración sobre variedades libre de coordenadas. También permite una generalización natural del teorema fundamental del cálculo, denominada teorema de Stokes, que se puede establecer como

int_{Omega} {bold d}omega = int_{partialOmega} omega ,!

donde ω es una k-forma general, y ∂Ω indica la frontera de la región Ω. Así en el supuesto de que ω sea una 0-forma y Ω sea un intervalo cerrado de la recta real, el teorema de Stokes se reduce al teorema fundamental del cálculo. En el caso de que ω sea una 1-forma y Ω sea una región de dimensión 2 en el plano, el teorema se reduce al teorema de Green. De manera similar, empleando 2-formas, 3-formas y la dualidad de Hodge, se puede llegar al teorema de Stokes y al teorema de la divergencia. De esta forma puede verse que las formas diferenciales suministran una potente visión unificadora de la integración.

Métodos y aplicaciones [editar]

Cálculo de integrales [editar]

Artículo principal: Métodos de integración

La técnica más básica para calcular integrales de una variable real se basa en el teorema fundamental del cálculo. Se procede de la siguiente forma:

  1. Se escoge una función f(x) y un intervalo [a, b].
  2. Se halla una primitiva de f, es decir, una función F tal que F' = f.
  3. Se emplea el teorema fundamental del cálculo, suponiendo que ni el integrando ni la integral tienen singularidades en el camino de integración, int_a^b f(x),dx = F(b)-F(a).
  4. Por tanto, el valor de la integral es F(b) − F(a).

Nótese que la integral no es realmente la primitiva, sino que el teorema fundamental permite emplear las primitivas para evaluar las integrales definidas.

A menudo, el paso difícil de este proceso es el de encontrar una primitiva de f. En raras ocasiones es posible echar un vistazo a una función y escribir directamente su primitiva. Muy a menudo, es necesario emplear una de las muchas técnicas que se han desarrollado para evaluar integrales. La mayoría de ellas transforman una integral en otra que se espera que sea más manejable. Entre estas técnicas destacan:

Incluso si estas técnicas fallan, aún puede ser posible evaluar una integral dada. La siguiente técnica más común es el cálculo del residuo, mientras que la serie de Taylor a veces se puede usar para hallar la primitiva de las integrales no elementales en lo que se conoce como el método de integración por series. También hay muchas formas menos habituales para calcular integrales definidas; por ejemplo, se puede emplear la identidad de Parseval para transformar una integral sobre una región rectangular en una suma infinita. En algunas ocasiones, se puede evaluar una integral empleando un truco; un ejemplo de este tipo se puede ver en la integral de Gauss.

Los cálculos de volúmenes de sólidos de revolución se pueden hacer normalmente con la integración por discos o la integración por capas.

Los resultados específicos que se han encontrado empleando las diferentes técnicas se recogen en la tabla de integrales.

Algoritmos simbólicos [editar]

Artículo principal: Integración simbólica

En muchos problemas de matemáticas, física, e ingeniería en los que participa la integración es deseable tener una fórmula explícita para la integral. Con esta finalidad, a lo largo de los años se han ido publicando extensas tablas de integrales. Con el desarrollo de los ordenadores, muchos profesionales, educadores y estudiantes han recurrido a los sistemas de cálculo algebraico por ordenador, que han sido diseñados específicamente para desarrollar tareas tediosas o difíciles, entre las cuales se encuentra la integración. La integración simbólica presenta un reto especial en el desarrollo de este tipo de sistemas.

Una dificultad matemática importante de la integración simbólica es que, en muchos casos, no existe ninguna fórmula cerrada para la primitiva de una función aparentemente inocente. Por ejemplo, se sabe que las primitivas de las funciones exp (x2), xx y sen x /x no se pueden expresar con una fórmula cerrada en las que participen sólo funciones racionales, exponenciales, logarítmicas, trigonométricas, inversas de las funciones trigonométricas, y las operaciones de suma, multiplicación y composición. En otras palabras, ninguna de estas tres funciones dadas es integrable con funciones elementales. La teoría de Galois diferencial proporciona criterios generales para determinar cuándo la primitiva de una función elemental es a su vez elemental. Por desgracia, resulta que las funciones con expresiones cerradas para sus primitivas son la excepción en vez de ser la regla. En consecuencia, los sistemas de cálculo algebraico por ordenador, no pueden tener la seguridad de poder encontrar una primitiva para una función elemental cualquiera construida de forma aleatoria. En el lado positivo, si se fijan de antemano los "bloques constructivos" de las primitivas, aún es posible decidir si se puede expresar la primitiva de una función dada empleando estos bloques y las operaciones de multiplicación y composición, y hallar la respuesta simbólica en el caso de que exista. El algoritmo de Risch, implementado en Mathematica y en otros sistemas de cálculo algebraico por ordenador, hacen precisamente esto para funciones y primitivas construidas a partir de fracciones racionales, radicales, logaritmos y funciones exponenciales.

Algunos integrandos aparecen con la suficiente frecuencia como para merecer un estudio especial. En particular, puede ser útil tener, en el conjunto de las primitivas, las funciones especiales de la física (como las funciones de Legendre, la función hipergeométrica, la función gamma, etcétera). Es posible extender el algoritmo de Risch-Norman de forma que abarque estas funciones, pero se trata de todo un reto.

La mayoría de los humanos no son capaces de integrar estas fórmulas generales, por lo que en cierto sentido los ordenadores son más hábiles integrando fórmulas muy complicadas. Es poco probable que las fórmulas muy complejas tengan primitivas de forma cerrada, de modo que hasta qué punto esto es una ventaja es una cuestión filosófica abierta a debate.

Cuadratura numérica [editar]

Métodos numéricos de cuadratura:  Rectángulo,  Trapezoide,  Romberg,  Gauss.
Artículo principal: Integración numérica

Las integrales que se encuentran en los cursos básicos de cálculo han sido elegidas deliberadamente por su simplicidad, pero las que se encuentran en las aplicaciones reales no siempre son tan asequibles. Algunas integrales no se pueden hallar con exactitud, otras necesitan de funciones especiales que son muy complicadas de calcular, y otras son tan complejas que encontrar la respuesta exacta es demasiado lento. Esto motiva el estudio y la aplicación de métodos numéricos para aproximar integrales. Hoy en día se usan en la aritmética de coma flotante, en ordenadores electrónicos. Para los cálculos a mano surgieron muchas ideas mucho antes; pero la velocidad de los ordenadores de uso general como el ENIAC crearon la necesidad de mejoras.

Los objetivos de la integración numérica son la exactitud, la fiabilidad, la eficiencia y la generalidad. Por ejemplo, la integral

int_{-2}^{2} tfrac15 left( tfrac{1}{100}(322 + 3 x (98 + x (37 + x))) - 24 frac{x}{1+x^2} right) dx

que tiene el valor aproximado de 6.826 (en la práctica ordinaria no se conoce de antemano la respuesta, por lo que una tarea importante — que no se explora aquí — es decidir en qué momento una aproximación ya es bastante buena.) Un enfoque de "libro de cálculo" divide el intervalo de integración en, por ejemplo, 16 trozos iguales, y calcula los valores de la función.

Valores de la función en los puntos
x−2,00−1,50−1,00−0,50 0,00 0,50 1,00 1,50 2,00
f(x) 2,22800 2,45663 2,67200 2,32475 0,64400−0,92575−0,94000−0,16963 0,83600
x −1.75−1,25−0,75−0,25 0,25 0,75 1,25 1.75
f(x) 2,33041 2,58562 2,62934 1,64019−0,32444−1,09159−0,60387 0,31734

Referencias y notas [editar]

  1. En el caso de las funciones a las que se aplica la definición de Riemann, los resultados coinciden
  2. Burton, David M. (2005). The History of Mathematics: An Introduction (6ª ed.), McGraw-Hill, p. 359, ISBN 978-0-07-305189-5
  3. Leibniz, Gottfried Wilhelm (1899) (Gerhardt, Karl Immanuel, ed.). Der Briefwechsel von Gottfried Wilhelm Leibniz mit Mathematikern. Erster Band, Berlin: Mayer & Müller, p. 154
  4. Cajori, Florian (1929). A History Of Mathematical Notations, Vol. II, Open Court Publishing, pp. 247–252, ISBN 978-0-486-67766-8
  5. Fourier, Jean Baptiste Joseph (1822). Théorie analytique de la chaleur, Chez Firmin Didot, père et fils, p. §231, [1]
  6. W3C (2006). Arabic mathematical notation [2]
  7. Rudin, Walter (1987). "Chapter 1: Abstract Integration", Real and Complex Analysis (International ed.), McGraw-Hill, ISBN 978-0-07-100276-9
  8. Folland, Gerald B. (1984). Real Analysis: Modern Techniques and Their Applications (1ª ed.), John Wiley & Sons, ISBN 978-0-471-80958-6
  9. Bourbaki, Nicolas (2004). Integration I, Springer Verlag, ISBN 3-540-41129-1. En particular, los capítulos III y IV.
  10. Hildebrandt, T. H. (1953). "Integration in abstract spaces", Bulletin of the American Mathematical Society 59(2): 111–139, ISSN 0273-0979 [3]

Bibliografia [editar]

Véase también [editar]

Enlaces externos [editar]


Libros online [editar]

MATEMÁTICAS: DERIVADAS. PERMITEN HACER APROXIMACIONES A UN PUNTO. TIENEN POR TANTO MUCHAS APLICACIONES EN GEOMETRÍA Y CÁLCULO DIFERENCIAL (HACIA DÓNDE TIENDE LA LÍNEA). En cálculo (rama de las matemáticas), la derivada representa cómo una función cambia a medida que su entrada cambia. En términos poco rigurosos, una derivada puede ser vista como cuánto está cambiando el valor de una cantidad en un punto dado; por ejemplo, la derivada de la posición de un vehículo con respecto al tiempo es la velocidad instantánea con la cual el vehículo está viajando. La derivada de una función en un valor de entrada dado describe la mejor aproximación lineal de una función cerca del valor de entrada.

Derivada

De Wikipedia, la enciclopedia libre

En cálculo (rama de las matemáticas), la derivada representa cómo una función cambia a medida que su entrada cambia. En términos poco rigurosos, una derivada puede ser vista como cuánto está cambiando el valor de una cantidad en un punto dado; por ejemplo, la derivada de la posición de un vehículo con respecto al tiempo es la velocidad instantánea con la cual el vehículo está viajando.

La derivada de una función en un valor de entrada dado describe la mejor aproximación lineal de una función cerca del valor de entrada. Para funciones de valores reales de una sola variable, la derivada en un punto representa el valor de la pendiente de la recta tangente en la gráfica de la función en dicho punto. En dimensiones más elevadas, la derivada de una función en un punto es la transformación lineal que más se aproxima a la función en valores cercanos de ese punto. Algo estrechamente relacionado es el diferencial de una función.

El proceso de encontrar una derivada es llamado diferenciación. El teorema fundamental del cálculo dice que la diferenciación es el proceso inverso de la integración en funciones continuas.

La derivada de la función en el punto marcado equivale a la pendiente de la recta tangente (la gráfica de la función está dibujada en negro; la tangente a la curva está dibujada en rojo).

Contenido

[ocultar]

Conceptos y aplicaciones [editar]

El concepto de derivada es uno de los dos conceptos centrales del cálculo infinitesimal. El otro concepto es la "antiderivada" o integral; ambos están relacionados por el teorema fundamental del cálculo. A su vez, los dos conceptos centrales del cálculo están basados en el concepto de límite, el cual separa las matemáticas previas, como el Álgebra, la Trigonometría o la Geometría Analítica, del Cálculo. Quizá la derivada es el concepto más importante del Cálculo Infinitesimal.

La derivada es un concepto que tiene variadas aplicaciones. Se aplica en aquellos casos donde es necesario medir la rapidez con que se produce el cambio de una magnitud o situación. Es una herramienta de cálculo fundamental en los estudios de Física, Química y Biología, o en ciencias sociales como la Economía y la Sociología. Por ejemplo, cuando se refiere a la gráfica de dos dimensiones de f, se considera la derivada como la pendiente de la recta tangente del gráfico en el punto x. Se puede aproximar la pendiente de esta tangente como el límite cuando la distancia entre los dos puntos que determinan una recta secante tiende a cero, es decir, se transforma la recta secante en una recta tangente. Con esta interpretación, pueden determinarse muchas propiedades geométricas de los gráficos de funciones, tales como concavidad o convexidad.

Algunas funciones no tienen derivada en todos o en alguno de sus puntos. Por ejemplo, una función no tiene derivada en los puntos en que se tiene una tangente vertical, una discontinuidad o un punto anguloso. Afortunadamente, gran cantidad de las funciones que se consideran en las aplicaciones son continuas y su gráfica es una curva suave, por lo que es susceptible de derivación.

Las funciones que son diferenciables (derivables si se habla en una sola variable), son aproximables linealmente.

Introducción geométrica a las derivadas [editar]

La derivada de la función en el punto marcado equivale a la pendiente de la recta tangente (la gráfica de la función está dibujada en negro; la tangente a la curva está dibujada en rojo).

Supongamos que tenemos una función y la llamamos f,. La derivada de f, es otra función que llamaremos f',.

f'(x), representa la pendiente de la recta tangente a la gráfica de f, en el punto x,.

En términos geométricos, esta pendiente f'(x), es "la inclinación" de la línea recta que pasa justo por encima del punto (x, f(x)), y que es tangente a la gráfica de f,.

Al identificar dos puntos muy cercanos en la gráfica y al unirlos mediante una línea recta, una pendiente queda visualizada. Cuanto más cercanos sean los dos puntos que se unen por medio de la recta, la recta se parece más a una recta tangente a la gráfica y su pendiente se parece más a la pendiente de una recta tangente.

Notamos que esta pendiente coincide con la rapidez con que aumenta el valor de la función en cada punto. Dicho de otra manera, si la pendiente en un punto es muy grande, entonces el valor de la función en ese punto crece muy deprisa; si la pendiente es muy pequeña, entonces el valor de la función crece muy despacio en ese punto.

Es decir, tanto la pendiente de la recta tangente como la rapidez de crecimiento en un punto x, de una función f, está dado por f'(x),.

Lamentablemente no todas las funciones poseen derivada, desde el punto de vista geométrico esto se puede deber a varias cosas: por ejemplo hay funciones donde se da el caso de que por un mismo punto pasan muchas rectas tangentes(por ejemplo la función valor absoluto en el punto 0) y no es posible definir de manera única la pendiente a la recta tangente; también se da el caso de que no se puede definir la pendiente a una recta tangente en una función que no es continua; incluso hay funciones donde cualquier recta que pase por uno de sus puntos intersecta en una infinidad de puntos muy cercanos y por tanto no hay recta tangente.

Las funciones que poseen derivada se llaman diferenciables.

Conocer la derivada de una función diferenciable por lo general resulta una tarea sencilla utilizando las técnicas de derivación desarrolladas por Gottfried Leibniz e Isaac Newton, las cuales permiten conocer las derivadas de muchas de las funciones de interés frecuente o bien, simplificar el trabajo para encontrar derivadas menos comunes.

Condiciones de continuidad de una función [editar]

Una función continua es aquella cuya regla de correspondencia asigna incrementos pequeños en la variable dependiente a pequeños incrementos de los elementos del dominio de dicha función, es decir,  lim_{Delta x to 0}Delta y=0, y usando la expresión Δy + y = fx + x), queda  lim_{Delta x to 0}f(Delta x +x)-y=0 donde en este caso, f(x) = y. Ello quiere decir que lim_{x to a}f_{(x)}=f_{(a)}, y si este último límite existe significa en consecuencia por un teorema de límites (un límite existe si y sólo si los dos límites laterales existen y son iguales) que toda función f(x) que cumpla con

 lim_{x to a+}f(x)= lim_{x to a-}f(x)=lim_{x to a}f(x)=f(a) es continua en el punto a.

Condición no recíproca [editar]

La relación no funciona a la inversa: el que una función sea continua no garantiza su derivabilidad. Es posible que los límites laterales sean equivalentes pero las derivadas laterales no; en este caso la función presenta un punto anguloso en dicho punto.

Un ejemplo puede ser la función valor absoluto (también llamada módulo) en el punto (0,0) ,. Dicha función es equivalente a la función partida left{begin{matrix} x, & mbox{si }xge 0  -x, & mbox{si }x<0 end{matrix}right.

Para valores infinitamente cercanos a 0, por ambas ramas, el resultado tiende a 0. Y el resultado en el punto 0 es también 0, por lo tanto es continua. Sin embargo, las derivadas resultan left{begin{matrix} 1, & mbox{si }x> 0  -1, & mbox{si }x<0 end{matrix}right.

Cuando x , vale 0, las derivadas laterales dan resultados diferentes. Por lo tanto, no existe derivada en el punto, a pesar de que sea continuo.

De manera informal, si el gráfico de la función tiene puntas agudas, se interrumpe o tiene saltos, no es derivable.

Definición analítica de derivada como un límite [editar]

Esquema que muestra los incrementos de la función en x y en y.

En terminología clásica, diferenciación manifiesta el coeficiente en que una cantidad y, cambia a consecuencia de un cambio en otra cantidad x,.

En matemáticas coeficiente es un factor multiplicativo que pertenece a cierto objeto como una variable, un vector unitario, una función base, etc.

En física coeficiente es una expresión numérica que mediante alguna fórmula determina las características o propiedades de un cuerpo.

En nuestro caso, observando la gráfica de la derecha, el coeficiente del que hablamos vendría representado en el punto P, de la función por el resultado de la división representada por la relación frac{dx}{dy}, que como puede comprobarse en la gráfica, es un valor que se mantiene constante a lo largo de la línea recta azul que representa la tangente en el punto P, de la función. Esto es fácil de entender puesto que el triangulo rectangulo formado en la gráfica con vertice en el punto P,, por mucho que lo dibujemos más grande, al ser una figura proporcional el resultado de frac{dx}{dy} es siempre el mismo.

Esta noción constituye la aproximación más veloz a la derivada, puesto que el acercamiento a la pendiente de la recta tangente es tanto por la derecha como por la izquierda de manera simultánea.

En particular, se tiene que la derivada de la función en el punto a, se define como sigue:


f'(a)=lim_{hrightarrow0} frac{f(a + h) - f(a)}{h},

Si este límite existe, de lo contrario, f' no está definida. Esta última expresión coincide con la velocidad instantánea del movimiento continuo uniforme acelerado en cinemática.

Aunque podrían calcularse todas las derivadas empleando la definición de derivada como un límite, existen reglas bien establecidas, conocidas como teoremas para el cálculo de derivadas, las cuales permiten calcular la derivada de muchas funciones de acuerdo a su forma sin tener que calcular forzosamente el límite. Tales reglas son consecuencia directa de la definición de derivada y de reglas previas, como puede apreciarse en todo buen texto de cálculo infinitesimal.

También puede definirse alternativamente la derivada de una función en cualquier punto de su dominio de la siguiente manera:

f'(a)=lim_{xrightarrow a} frac{f(x) - f(a)}{x - a},

La cual representa un acercamiento de la pendiente de la secante a la pendiente de la tangente ya sea por la derecha o por la izquierda según el signo de a,. El aspecto de este límite está relacionado más con la velocidad instantánea del movimiento uniformemente acelerado que con la pendiente de la recta tangente a una curva.

No obstante su aparente diferencia, el cálculo de la derivada por definición con cualquiera de los límites anteriormente expresados, proporciona siempre el mismo resultado.

El conocimiento de todas las expresiones anteriores y su significado representan el acercamiento epistémico más completo posible en torno a la definición de derivada, y con ello, al aspecto esencial del cálculo diferencial.

Notación [editar]

Existen diversas formas para nombrar a la derivada. Si f es una función, se escribe la derivada de la función f, respecto al valor x, en varios modos:

se lee "efe prima de equis"

se lee "d, sub x, de f,", y los símbolos D y d deben entenderse como operadores.

se lee "punto x," o "x, punto". Actualmente está en desuso en Matemáticas puras, sin embargo se sigue usando en áreas de la física como la mecánica, donde otras notaciones de la derivada se pueden confundir con la notación de velocidad relativa. Se usa para definir la derivada temporal de una variable.

se lee "derivada de y, (f, ó f, de x,) con respecto a x,". Esta notación tiene la ventaja de sugerir a la derivada de una función con respecto a otra como un cociente de diferenciales.

La notación más simple para diferenciación, en uso actual, es debida a Lagrange. Para identificar las derivadas de f, en el punto a, se escribe:

f^prime(a) para la primera derivada, f^{primeprime}(a) para la segunda derivada, f^{primeprimeprime}(a) para la tercera derivada, f^{(n)}(a), para la enésima derivada (n > 3). (También se pueden usar números romanos).

Para la función derivada de f, en x,, se escribe f^prime(x),. De modo parecido, para la segunda derivada de f, en x,, se escribe f^{primeprime}(x),, y así sucesivamente.

La otra notación común para la diferenciación es debida a Leibniz. Para la función derivada de f,, se escribe:

frac{mathrm dleft(f(x)right)}{mathrm dx}.

Con esta notación, se puede escribir la derivada de f en el punto a de dos modos diferentes:

frac{mathrm dleft(f(x)right)}{mathrm dx}left.{!!frac{}{}}right|_{x=a} = left(frac{mathrm dleft(f(x)right)}{mathrm dx}right)(a).

Si y=f(x),, se puede escribir la derivada como

mathrm dy over mathrm dx

Las derivadas sucesivas se expresan como

frac{mathrm d^nleft(f(x)right)}{mathrm dx^n} o frac{mathrm d^ny}{mathrm dx^n}

para la enésima derivada de f, o de y respectivamente. Históricamente, esto viene del hecho que, por ejemplo, la tercera derivada es

frac{mathrm d left(frac{mathrm d left( frac{mathrm d left(f(x)right)} {mathrm dx}right)} {mathrm dx}right)} {mathrm dx}

la cual se puede escribir como

left(frac{mathrm d}{mathrm dx}right)^3 left(f(x)right) = frac{mathrm d^3}{left(mathrm dxright)^3} left(f(x)right).

La notación de Leibniz es muy útil, por cuanto permite especificar la variable de diferenciación (en el denominador); lo cual es pertinente en caso de diferenciación parcial. También facilita recordar la regla de la cadena, porque los términos "d" parecen cancelarse simbólicamente:

frac{mathrm dy}{mathrm dx} = frac{mathrm dy}{mathrm du} cdot frac{mathrm du}{mathrm dx}.

En la formulación popular del cálculo mediante límites, los términos "d" no pueden cancelarse literalmente, porque por sí mismos son indefinidos; son definidos solamente cuando se usan juntos para expresar una derivada. En análisis no-estándar, no obstante, se puede ver como números infinitesimales que se cancelan.

La notación de Newton para la diferenciación respecto al tiempo, era poner un punto arriba del nombre de la función:

dot{x} = frac{mathrm dx}{mathrm dt} = x^prime(t) ddot{x} = x^{primeprime}(t)

y así sucesivamente.

Esta notación de Newton se usa principalmente en mecánica, normalmente para derivadas de tiempo tales comos velocidad y aceleración, y en teoría de ecuaciones diferenciales ordinarias. Usualmente solo se usa para las primeras y segundas derivadas.

Diferenciabilidad [editar]

Una función con dominio en un subconjunto de los reales es diferenciable en un punto x si su derivada existe en ese punto; una función es diferenciable en un intervalo si es diferenciable en todos los puntos del intervalo.

Si una función es diferenciable en un punto x, la función es continua en ese punto. Sin embargo, una función continua en x, puede no ser diferenciable en dicho punto. En otras palabras, diferenciabilidad implica continuidad, pero no su recíproco.

La derivada de una función diferenciable puede ser, a su vez, diferenciable. La derivada de una primera derivada se llama derivada segunda. De un modo parecido. La derivada de una derivada segunda es la derivada tercera, y así sucesivamente. Esto también recibe el nombre de derivación sucesiva o derivadas de orden superior.

Cociente de diferencias de Newton [editar]

Derivative.png

La derivada de una función f, es la pendiente geométrica de la línea tangente del gráfico de f, en x,. Sin el concepto que se va a definir, no es posible encontrar directamente la pendiente de la línea tangente a una función dada, porque solamente se conoce un punto en la línea tangente: (x,f(x)),. La idea es aproximar la línea tangente con múltiples líneas secantes que tienen distancias progresivamente más pequeñas entre los dos puntos que cruzan. Cuando se toma el límite de las pendientes de las líneas secantes de esta progresión, se consigue la pendiente de la línea tangente. Se define, pues, la derivada tomando el límite de la pendiente de las líneas secantes, al acercarlas a la línea tangente.

Para encontrar las pendientes de las líneas secantes próximas, se elige un número relativamente pequeño h,. h, representa un cambio relativamente pequeño en x,, y puede ser positivo o negativo. La pendiente de la línea que cruza los dos puntos  ( x, f(x) ) , y  ( x+h, f(x+h) ) , es

f(x + h) - f(x) over h .
Inclinación de la secante de la curva y=f(x).

Esta expresión es el cociente de diferencias de Newton. La derivada de f en x es el límite del valor del cociente diferencial, conforme las líneas secantes se aproximan a la línea tangente:

displaystyle f^prime(x) = lim_{h to 0} {f(x + h) - f(x) over h}.

Si la derivada de f , existe en todos los puntos x ,, se puede definir la derivada de f , como la función cuyo valor en cada punto x , es la derivada de f , en x ,.

Puesto que sustituir h , por 0 produce una división por cero, calcular directamente la derivada puede no ser intuitivo. Una técnica posible consiste en operar en el numerador, de manera que se puede cancelar la h , del denominador. Y eso es posible fácilmente en los polinomios. Pero para muchas otras funciones el resultado es incierto. Afortunadamente, hay reglas generales que facilitan diferenciar la mayoría de las funciones simples.


Sea f , una función continua, y C , su curva. Sea x=a , la abscisa de un punto regular, es decir donde C , no hace un ángulo. En el punto A(a,f(a)) , de C , se puede trazar la tangente a la curva. Su coeficiente director, o sea su pendiente, es f^prime(a), el número derivado de f , en a ,.

La función arightarrow f^prime(a) es la derivada de f ,.

Pendiente.png

En el punto de contacto, conociendo la pendiente de la tangente, es decir f^prime(a), se puede saber a qué ritmo crece o decrece la función. El signo de f^prime(a) determina en función f , (si crece o no).

Derivada.png

En este gráfico se ve que donde f , es creciente, las tangentes apuntan hacia arriba (mirando de izquierda a derecha), y por lo tanto f^prime , es positiva, como en el punto D , (x=d ,), mientras que donde f , es decreciente, las tangentes apuntan hacia abajo y f^prime es negativa, como en el punto B , (x=b ,). En los puntos A , y C ,, que son máximo y mínimo local, la tangente es horizontal, luego f^prime(a)=0=f^prime(c).

La función derivada se puede calcular sin dibujar la curva de f. En efecto, gracias a una propiedad geométrica de la tangente, se tiene la fórmula:

f^prime(x) = lim_{h to 0} frac {f(x+h) -  f(x)} {h}

Por ejemplo, sea

 fleft(xright) = x^2

entonces:

 begin{array}{rcl}  f^prime(x) &=& displaystyle lim_{h to 0} frac{f(x+h) - f(x)}{h}  &=& displaystyle lim_{h to 0} frac{(x+h)^2 -x^2}{h}  &=& displaystyle lim_{h to 0} frac{x^2 + 2xh + h^2 - x^2}{h}  &=& displaystyle lim_{h to 0} frac{2xh + h^2}{h}  &=& displaystyle lim_{h to 0} (2x + h)  &=& 2x end{array}

Lista de derivadas de funciones elementales [editar]

Artículo principal: Anexo:Tabla de derivadas
fleft(xright) = af'left(xright) = 0
fleft(xright) = xf'left(xright) = 1
fleft(xright) = axf'left(xright) = a
fleft(xright) = ax + bf'left(xright) = a
fleft(xright) = x^nf'left(xright) = nx^{n-1}
fleft(xright) = sqrt{x}f'left(xright) = frac{1}{2sqrt{x}}
fleft(xright) = e^xf'left(xright) = e^x
fleft(xright) = ln(x)f'left(xright) = frac{1}{x}
fleft(xright) = a^x (a >0)f'left(xright) = a^x ln(a)
fleft(xright) = log_{b}(x)f'left(xright) = frac{1}{xln(b)}
fleft(xright) = frac{1}{x^n} = (x^n)^{-1} = x^{-n}f'left(xright) = -nx^{-n-1} = -nx^{-(n+1)} = frac{-n}{x^{n+1}}
fleft(xright) = operatorname{sen}(x)f'left(xright) = cos(x)
fleft(xright) = cos(x)f'left(xright) = -operatorname{sen}(x)
fleft(xright) = tan(x)f'left(xright)=sec^2(x)=frac{1}{cos^2(x)}=1+tan^2(x)
fleft(xright) = csc(x)f'left(xright) = -csc(x)cot(x)
fleft(xright) = sec(x)f'left(xright) = sec(x)tan(x)
fleft(xright) = cot(x)f'left(xright) = -csc^2(x)
fleft(xright) = operatorname{arcsen}(x)f'left(xright) = frac{1}{sqrt{1-x^2}}
fleft(xright) = arccos(x)f'left(xright) = frac{-1}{sqrt{1-x^2}}
fleft(xright) = arctan(x)f'left(xright) = frac{1}{1+x^2}
fleft(xright) = g(x) pm h(x)f'left(xright) = g'(x) pm h'(x)
fleft(xright) = g(x) cdot h(x)f'left(xright) = g'(x) cdot h(x) + g(x) cdot h'(x)
fleft(xright) = frac{g(x)}{h(x)}f'left(xright) = frac{g'(x) cdot h(x) - g(x) cdot h'(x)}{h^2(x)}
fleft(xright) = k cdot g(x)f'left(xright) = k cdot g'(x)
fleft(xright) = g circ h = g(h(x))f'left(xright) = (g'circ h) cdot h' = g'(h(x)) cdot h'(x)

Ejemplo [editar]

Sea f , la función f(x)=2x^3-9x^2-24x+51 ,, definida sobre el conjunto de los números reales (denotado por mathbb R ,). Para conocer sus variaciones se observa su derivada:

f^prime(x)=6x^2-18x-24

Para encontrar el signo de f^prime(x), se tiene que factorizar:

begin{array}{rcl}f^prime(x)&=&6(x^2-3x-4)&=&6(x+1)(x-4)end{array}

lo anterior que se hace resolviendo una ecuación de segundo grado.

También se observa su segunda derivada:

f''(x) = 12x − 18

Dado que f'(-1)=0, y f''(-1)<0, entonces f, tiene un máximo local en -1 y su valor es f(-1)=64,.

Dado que f'(4)=0, y f''(4)>0, entonces f, tiene un mínimo local en 4 y su valor es f(4)=-61,.

Nótese que la derivada es diferenciable en todo su dominio y hay exactamente 2 valores de x tales que f'(x)=0,, los cuales son x=-1, y x=4,, tomando en cuenta el teorema del valor medio y que f''(-1)<0, entonces la derivada es negativa en el intervalo (-1, 4), por lo tanto la función es decreciente en el intervalo [-1, 4],.

Al ser una función basada en un polinomio cúbico no está acotada ni por arriba ni por abajo y como su derivada es una función cuadrática entonces no tiene más de 2 puntos con derivada igual a cero, por tanto la función es creciente en el intervalo [4, infty), y en el intervalo (-infty, -1],.

Generalizaciones [editar]

El concepto simple de derivada de una función real de una sola variable ha sido generalizado de varias maneras:

Véase también [editar]

MATEMÁTICAS: LÍMITE DE UNA FUNCIÓN. AVERIGUO SI ESA FUNCIÓN ES CONTINUA O LINEAL Y LUEGO TRATO DE SABER SI NO LO ES, HACIA DONDE SE APROXIMAN ESA SECUENCIA DE PUNTOS A TRAVÉS DE LAS DIFERENCIALES O DERIVDAS. El límite de una función es un concepto fundamental del cálculo diferencial matemático.

Límite de una función

De Wikipedia, la enciclopedia libre

El límite de una función es un concepto fundamental del cálculo diferencial matemático.

Informalmente, el hecho que una función f tiene un límite L en el punto p, significa que el valor de f puede ser tan cercano a L como se desee, tomando puntos suficientemente cercanos a p, pero distintos de p.

Contenido

[ocultar]

Historia [editar]

Aunque implícita en el desarrollo del Calculo de los siglos XVII y XVIII, la notación moderna del límite de una función se remonta a Bolzano quien, en 1817, introdujo las bases de la técnica épsilon-delta.[1] Sin embargo, su trabajo no fue conocido mientras él estuvo vivo. Cauchy expuso límites en su Cours d'analyse (1821) y parece haber expresado la esencia de la idea, pero no en una manera sistemática.[2] La primera presentación rigurosa de la técnica hecha pública fue dada por Weierstrass en los 1850 y 1860[3] y desde entonces se ha convertido en el método estándar para trabajar con límites.

La notación de escritura usando la abreviatura lim con la flecha debajo es debido a Hardy en su libro A Course of Pure Mathematics en 1908.[2]

Definición formal [editar]

Funciones en espacios métricos [editar]

Visualización de los parámetros utilizados en la definición de límite.
    begin{array}{l}       underset {xto p}{lim} , , f(x) = L iff                forall varepsilon > 0   exists delta > 0 :            forall x(0<|x-p|<delta longrightarrow |f(x)-L|<epsilon)    end{array}

El límite de la función f(x) cuando x se aproxima a p será L si y solo sí para todo ε > 0 existe un δ > 0 tal que para todo número real x en 0 < |x - p| < δ, tenemos que |f(x) - L| < ε

El siguiente concepto de límite es el de la definición formal, la cual no es muy aprensible para el común de la gente. Dicha formulación matemática es más conocida como epsilon - delta. Por ello es importante entender el concepto de límite como aquella herramienta matemática que sirve para conocer el comportamiento de una función alrededor de un punto, y que no dice nada de tal comportamiento precisamente en dicho punto.

Supóngase f : (M, dM) -> (N, dN) es mapeado entre dos espacios métricos, p es un punto límite de M y LN. Decimos que "el límite de f en p es L" y escribimos

 lim_{x to p}f(x) = L

si y sólo si para todo ε > 0 existe un δ > 0 tal que para toda xM en 0 < dM(x, p) < δ, tenemos dN(f(x), L) < ε.

En términos de desigualdades, tenemos que el límite de la función f ( x ) en x = a es L si se cumple lo siguiente: para toda ε > 0 existe un δ (ε) > 0 tal que, para toda x:

si 0 < left| x - a right| < delta , entonces left| fleft(xright) - L right| < epsilon

Observemos que la solución de la desigualdad 0 < | x - a | < δ es la siguiente:

x pertenece a la vecindad ( a - δ , a ) U ( a, a + δ ): x no toca el valor de a, pues

0 < | x - a | implica x distinto de a,

mientras que la solución de | f (x) - L | < ε es la siguiente:

y pertenece al intervalo ( L - ε , L + ε ).

Esto proporciona la clave de la comprensión del concepto de límite, pues mientras que el valor de la x está en la vecindad horizontal alrededor del punto "a" y agujereada en "a" con radio delta y centro "a", aun cuando en ese punto "a" no esté definida, el valor de y está en el intervalo vertical con centro en f(a) y radio épsilon.

Notación de límite [editar]

Límite de una función en un punto [editar]

Sea f una función real, entonces

 lim_{x to p}f(x) = L (x,Lin{mathbb{R}})

si y sólo si

para todo  varepsilon>0 existe un δ > 0 tal que para todo número real x en el dominio de la función

0 < |x-p| < delta Rightarrow |f(x)-L| < varepsilon

Notación formal: forall varepsilon >0,  exists {delta >0} / forall_{xinmathbb{D}} 0< |x-p|<delta Rightarrow |f(x)-L|< varepsilon

Indeterminaciones [editar]

Hay varios tipos de indeterminaciones, entre ellos:

    begin{array}{ll}       infty - infty                                cfrac{infty}{infty} & cfrac{0}{0}          infty cdot 0         & 1^infty              infty ^0              & 0^0     end{array}

* Nota: infty ,! se refiere al límite que tiende infinito y 0 ,! al límite cuando tiende 0 (no al número 0).

Ejemplo: 0/0 es una indeterminación pues límites de cocientes donde los límites de dividendo y divisor separadamente son cero, pueden terminar dando cualquier cosa, como los siguientes:

lim_{trightarrow 0}frac{t}{t^2}=inftylim_{trightarrow 0}frac{t}{t}=1lim_{trightarrow 0}frac{t^2}{t}=0

Propiedades de los límites [editar]

Si k es un escalar:

  1.  lim_{x to p} k =, k,
  2.  lim_{x to p} x = , p ,
  3.  lim_{x to p} kf(x) =, klim_{x to p} f(x),
  4.  lim_{x to p} (f(x) + g(x)) =, lim_{x to p} f(x) + lim_{x to p} g(x),
  5.  lim_{x to p} (f(x) - g(x)) =, lim_{x to p} f(x) - lim_{x to p} g(x),
  6.  lim_{x to p} (f(x) g(x)) =, lim_{x to p} f(x) cdot lim_{x to p} g(x),
  7.  lim_{x to p} {{f(x)}over {g(x)}} =, {{lim_{x to p} {f(x)}} over {lim_{x to p} {g(x)}}}, si g(x) ne 0  y lim_{x to p} g(x) ne 0,
  8.  {lim_{x to 0} left(1+xright)^{1 over x}} =, e
  9.  {lim_{x to infty} left(1+{1 over x}right)^x } =, e
  10.  {lim_{x to infty} x ; sin left (frac {2pi}{x} right ) cos left (frac {2pi}{x} right )} =,2pi
  11.  {lim_{x to 0} {{operatorname{sen}x} over x}} =, 1 , = {lim_{x to 0} {{x over operatorname{sen}x}}}
  12.  {lim_{x to 0} {tan x over x}} =, 1 , = {lim_{x to 0} {x over tan x}}
  13.  {lim_{x to 0} {operatorname{sen}x over tan x}} =, 1 , = {lim_{x to 0} {tan x over operatorname{sen} x}}
  14.  {lim_{x to p} left(f(x) cdot g(x)right)} =, 0 Leftrightarrow f(x) acotada y g(x) infinitésimo
  15.  {lim_{x to 0} frac {1-cos x}{x} } =, 0 ,

Véase también [editar]

Referencias [editar]

MATEMÁTICAS: LÍMITES MATEMÁTICOS. LOS LÍMITES MATEMÁTICOS EXPLICAN CÓMO VARÍA UNAS SECUENCIA DE PUNTOS AL VARÍAR UNO DE ELLOS. TIENE MUCHAS APLICACIONES EN FÍSICA, ASTRONOMÍA Y ASTROLOGÍA Y EN CIENCIAS COMO LA GEOMETRÍA Y EL ANÁLISIS DIFERENCIAL O DE DIFERENCIAS. En matemática, el límite es un concepto que describe la tendencia de una sucesión o una función, a medida que los parámetros de esa sucesión o función se acercan a determinado valor. En cálculo (especialmente en análisis real y matemático) este concepto se utiliza para definir los conceptos fundamentales de convergencia, continuidad, derivación, integración, entre otros.

Límite matemático

De Wikipedia, la enciclopedia libre

En matemática, el límite es un concepto que describe la tendencia de una sucesión o una función, a medida que los parámetros de esa sucesión o función se acercan a determinado valor. En cálculo (especialmente en análisis real y matemático) este concepto se utiliza para definir los conceptos fundamentales de convergencia, continuidad, derivación, integración, entre otros.

Contenido

[ocultar]

Límite de una función [editar]

Visualización de los parámetros utilizados en la definición de límite.
Artículo principal: Límite de una función

Definición rigurosa [editar]

Informalmente, se dice que el límite de la función f(x) es L cuando x tiende a c, y se escribe:

 lim_{xto c} , , f(x) = L

si se puede encontrar para cada ocasión un x suficientemente cerca de c tal que el valor de f(x) sea tan próximo a L como se desee. Formalmente, utilizando términos lógico-matemáticos:

    begin{array}{l}       underset {xto c}{lim} , , f(x) = L iff  forall varepsilon > 0   exists  delta > 0 :            forall x(0<|x-c|<delta longrightarrow |f(x)-L|<epsilon)    end{array}

Esta definición se denomina frecuentemente definición épsilon-delta de límite, y se lee como:

"para cada número real ε mayor que cero existe un número real δ mayor que cero tal que, para todo x, si la distancia entre x y c (x no es igual a c) es menor que δ, entonces la distancia entre la imagen de x y L es menor que ε unidades".

Límites notables [editar]

Como ejemplo de límites notables tenemos los siguientes límites de funciones, que proveen resultados muy interesantes.

Demostración [editar]

Para demostrar, por ejemplo, el segundo de estos límites, se utilizará la inecuación sen(x) < x < tan(x) en el intervalo (0,π/2), que relaciona x con las funciones seno y tangente. Luego dividimos por sen(x), obteniendo:

1 < frac{x}{operatorname{sen,}x} < frac{1}{cos x}

Invirtiendo los términos de la inecuación y cambiando los signos de desigualdad:

cos x < frac{operatorname{sen,} x}{x} < 1

Calculando el límite cuando x tiende a 0:

lim_{xto 0} cos x < lim_{xto 0} frac{operatorname{sen,} x}{x} < lim_{xto 0} 1

Lo que es igual a:

1 < lim_{xto 0} frac{operatorname{sen,} x}{x} < 1

Aplicando el teorema del sándwich o teorema de estricción, el límite necesariamente vale 1:

lim_{xto 0}frac{operatorname{sen,}(x)}{x}=1

El tercero de los límites se demuestra utilizando las propiedades de los límites y el valor obtenido en el límite anterior. Es decir:

  {lim_{x to 0} left (frac {tan x}{x} right )} =   {lim_{x to 0} left (frac {operatorname{sen,} x}{x} right )} cdot lim_{x to 0} frac{1}{cos x}= 1 cdot 1 = 1

El límite que obtiene el número e se demuestra de manera análoga, desarrollando el binomio de Newton y aplicando el límite cuando x tiende a infinito.

Límite de una sucesión [editar]

 a_{n} = begin{cases} 16 & mbox{si } n = 0  cfrac{a_{n-1}}{2} & mbox{si } n > 0 end{cases}
Artículo principal: Límite de una sucesión

La definición del límite matemático en el caso de una sucesión es muy parecida a la definición del límite de una función cuando x tiende a infty. Decimos que la sucesión an tiende hasta su límite a, o que converge o es convergente (a a), lo que denotamos como:

lim_{ntoinfty}a_n = a

si podemos encontrar un número N tal que todos los términos de la sucesión a a cuando n crece sin cota. Formalmente:

a_n to a Leftrightarrow forallepsilon>0, exists N>0 : forall nge N, |a_n - a|<epsilon

Propiedades de los límites [editar]

Generales [editar]

Los límites, como otros entes matemáticos, cumplen las siguientes propiedades generales, que son usadas muchas veces para simplificar el cálculo de los mismos.

  •  lim_{x to a} x = , a ,
  • Límite por un escalar.
 lim_{x to a} kf(x) =, klim_{x to a} f(x), donde k es un multiplicador escalar.
  • Límite de una suma.
 lim_{x to a} (f(x) + g(x)) =, lim_{x to a} f(x) + lim_{x to a} g(x),
  • Límite de una resta.
 lim_{x to a} (f(x) - g(x)) =, lim_{x to a} f(x) - lim_{x to a} g(x),
  • Límite de una multiplicación.
 lim_{x to a} (f(x) cdot g(x)) =, lim_{x to a} f(x) cdot lim_{x to a} g(x),
  • Límite de una división.
    underset {x to a} {lim} ; frac {f(x)}{g(x)} =    frac        {underset {x to a} {lim} ; f(x)}       {underset {x to a} {lim} ; g(x)}    quad    mathrm{si} lim_{x to a} g(x) ne 0

Indeterminaciones [editar]

Hay límites que evaluándolos directamente, se obtiene alguna de las siguientes expresiones:

infty - infty, ; frac{infty}{infty}, ; infty cdot 0 , ; frac{0}{0}, ; infty ^0, ; 1^infty,0^0 ,

A estas expresiones se les denomina indeterminaciones, ya que, a simple vista, no está claro cual puede ser el límite (si es que existe). Por ejemplo, en la segunda de estas ecuaciones, el límite pudiese valer 0, 1 o infinito. En algunos casos, simplificando las expresiones u obteniendo expresiones equivalentes a las iniciales, mediante racionalización o factorización se puede resolver la indeterminación y calcular el límite. En otros casos, se requerirá el uso de otras herramientas más potentes como pueden ser las desigualdades o la regla de L'Hopital.

Un ejemplo de indeterminación del tipo textstyle frac{0}{0} es la que se da en estos tres casos, y en cada caso (tras simplificar), se obtiene un límite distinto :

lim_{trightarrow 0}frac{t}{t^2}=frac{0}{0} quad xrightarrow[mathrm{simplificando}]{}  quad  lim_{trightarrow 0}frac{1}{t} = infty

lim_{trightarrow 0}frac{t}{t}=frac{0}{0} quad xrightarrow[mathrm{simplificando}]{}  quad  lim_{trightarrow 0} 1 =1

lim_{trightarrow 0}frac{t^2}{t}=frac{0}{0} quad xrightarrow[mathrm{simplificando}]{}  quad  lim_{trightarrow 0} {t} = 0

Enlaces externos [editar]

MATEMÁTICAS: VARIABLE ESTADÍSTICA. Variable es una característica (magnitud, vector o número) que puede ser medida, adoptando diferentes valores en cada uno de los casos de un estudio.

Variable estadística

De Wikipedia, la enciclopedia libre

 

Variable es una característica (magnitud, vector o número) que puede ser medida, adoptando diferentes valores en cada uno de los casos de un estudio.

Clasificación de las variables [editar]

En un estudio científico, podemos clasificar las variables según la escala de medición o la influencia que asignemos a unas variables sobre otras y por esta razón, se pueden clasificar como sigue:

  • Según la medición:
    • Variables cualitativas: Son las variables que expresan distintas cualidades, características o modalidad. Cada modalidad que se presenta se denomina atributo o categoría y la medición consiste en una clasificación de dichos atributos. Las variables cualitativas pueden ser ordinales y nominales. Las variables cualitativas pueden ser dicotómicas cuando sólo pueden tomar dos valores posibles como sí y no, hombre y mujer o son politómicas cuando pueden adquirir tres o más valores. Dentro de ellas podemos distinguir:
      1. Variable cualitativa ordinal: La variable puede tomar distintos valores ordenados siguiendo una escala establecida, aunque no es necesario que el intervalo entre mediciones sea uniforme, por ejemplo, leve, moderado, grave.
      2. Variable cualitativa nominal: En esta variable los valores no pueden ser sometidos a un criterio de orden como por ejemplo los colores o el lugar de residencia.
    • Variables cuantitativas: Son las variables que se expresan mediante cantidades numéricas. Las variables cuantitativas además pueden ser:
      1. Variable discreta: Es la variable que presenta separaciones o interrupciones en la escala de valores que puede tomar. Estas separaciones o interrupciones indican la ausencia de valores entre los distintos valores específicos que la variable pueda asumir. Ejemplo: El número de hijos (1, 2, 3, 4, 5).
      2. Variable continua: Es la variable que puede adquirir cualquier valor dentro de un intervalo especificado de valores. Por ejemplo el peso (2,3 kg, 2,4 kg, 2,5 kg, ...) o la altura (1,64 m, 1,65 m, 1,66 m, ...), que solamente está limitado por la precisión del aparato medidor, en teoría permiten que siempre exista un valor entre dos cualesquiera.
  • Según la influencia que asignemos a unas variables sobre otras, podrán ser:
    • Variables independientes: Son las que el investigador escoge para establecer agrupaciones en el estudio, clasificando intrínsecamente a los casos del mismo. Un tipo especial son las variables de control, que modifican al resto de las variables independientes y que de no tenerse en cuenta adecuadamente pueden alterar los resultados por medio de un sesgo.
    • Variables dependientes: Son las variables de respuesta que se observan en el estudio y que podrían estar influenciadas por los valores de las variables independientes.

Variable Independiente:

es aquella característica o propiedad que se supone ser la causa del fenómeno estudiado. En investigación experimental se llama así, a la variable que el investigador manipula.

Variable Dependiente:

Hayman (1974 : 69) la define como propiedad o característica que se trata de cambiar mediante la manipulación de la variable independiente.

La variable dependiente es el factor que es observado y medido para determinar el efecto de la variable independiente.

Variable Interviniente:

Son aquellas características o propiedades que de una manera u otra afectan el resultado que se espera y están vinculadas con las variables independientes y dependientes.

Variable Moderadora:

Según Tuckman: representan un tipo especial de variable independiente, que es secundaria, y se selecciona con la finalidad de determinar si afecta la relación entre la variable independiente primaria y las variables dependientes.


MATEMÁTICAS: GENIALIDAD. VARIABLES. Una variable es un símbolo que representa un elemento no especificado de un conjunto dado. Dicho conjunto es llamado conjunto universal de la variable, universo o dominio de la variable, y cada elemento del conjunto es un valor de la variable. Sea x una variable cuyo universo es el conjunto {1,3,5,7,9,11,13}; entonces x puede tener cualquiera de esos valores: 1,3,5,7,9,11,13. En otras palabras x puede reemplazarse por cualquier entero positivo impar menor que 14. Por esta razón, a menudo se dice que una variable es un reemplazo de cualquier elemento de su universo.

Variable

De Wikipedia, la enciclopedia libre

 

Una variable es un elemento de una fórmula, proposición o algoritmo que puede adquirir o ser sustituido por un valor cualquiera (siempre dentro de su universo). Los valores que una variable es capaz de recibir, pueden estar definidos dentro de un rango, y/o estar limitados por criterios o condiciones de pertenencia, al universo que les corresponde (en estos casos, el universo de la variable pasa a ser un subconjunto de un universo mayor, el que tendría sin las restricciones).

Hay diversos tipos de variables:

En muchos usos, lo contrario de una variable es una constante. También puede considerarse a las constantes como caso particular de variables, con un universo unitario (con un solo elemento), ya que sólo pueden tener un valor, y no pueden modificarlo.

Véase también [editar]