Mejor respuesta
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + … = \ dfrac {\ pi ^ 2} {6} \ tag {1}
Existe una excelente prueba de esto, y esta prueba es realmente la forma en que Euler demostró por primera vez esta identidad. Por supuesto, debo darle crédito a mi profesor por mostrarme esta identidad. (Todas las cuentas de Quora se enumeran en la pestaña «Citas» al final de esta respuesta) Por último, el único cálculo necesario para comprender esta prueba es la regla de poder, que aún puede seguir sin saberlo.
\ dfrac {\ mathrm d} {\ mathrm dx} [x ^ n] = nx ^ {n-1} \ tag * {}
Comenzamos con un poco de historia de las matemáticas. La verdadera identidad de Euler es no e ^ {i \ pi} + 1 = 0. De hecho, un matemático llamado Roger Cotes escribió sobre esto décadas antes que Euler, pero Euler era más famoso, por lo que se le atribuyó su descubrimiento. La identidad que resultó ser el reclamo de Euler a la fama fue de hecho
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} … = \ dfrac {\ pi ^ 2} {6} \ tag * {}
* Como dato curioso, existe una ley, llamada Ley de Stigler, que establece que ningún descubrimiento científico lleva el nombre de su descubridor original. Por supuesto, por coherencia, esta ley fue propuesta por primera vez por Robert Merton. Ejemplos de esta ley incluyen la Identidad de Euler, descubierta por Roger Cotes, la Ley de Hubble, derivada de George Lemaitre y el Teorema de Pitágoras descubierto por los matemáticos babilónicos mucho antes que Pitágoras. De todos modos, volvamos a la respuesta.
Este problema existía mucho antes que Euler, pero no se resolvió hasta él. Los matemáticos de la época como Jacob Bernoulli, Johan Bernoulli, Leibniz y John Wallis habían estado trabajando en el problema mucho antes que Euler, pero no pudieron encontrar un valor exacto del problema en cuestión. De hecho, este problema comenzó a volverse tan grande que obtuvo su propio nombre: el problema de Basilea.
Para demostrar que la suma de Euler converge en primer lugar, tenemos que reescribirlo a partir de esto
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} … \ etiqueta {1}
a esto.
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
Ambos son obviamente las mismas cosas, pero se expresan de manera diferente. Te mostraré por qué (2) es más útil que (1) aquí en un segundo.
Toma (2) y luego cámbialo. Como es muy difícil de expresar con palabras, solo tendré que mostrártelo:
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
\ implica
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Así que hemos cambiado el valor de la suma infinita, no te preocupes, no estoy tratando de pasar cosas por alto. Analicemos (3).
Esta nueva serie parece ser mayor que (2). El primer término tanto en (2) como en (3) son obviamente iguales entre sí. El segundo término en (3) es ciertamente mayor que (2) y vemos que este proceso continúa hasta el infinito. Esto significa que si esta serie (3) converge, la otra (2) también lo hace.
Así que esta parte puede no ser obvia para la mayoría de la gente, lo cual está bien; tampoco fue obvio para mí al principio.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Cortaremos la serie después de los primeros 4 términos y encontraremos la suma parcial.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 \ tag * {}
Para aquellos que no saben, esta serie se puede reescribir como:
\ dfrac {1} {1} + \ left (\ dfrac 1 1- \ dfrac 1 2 \ right) + \ izquierda (\ dfrac 1 2 – \ dfrac 1 3 \ right) + \ left (\ dfrac 1 3- \ dfrac 1 4 \ right) \ tag * {}
Editar:
Recibí una pregunta preguntando cómo podemos llegar a la nueva serie, y esta fue mi respuesta:
* Si sabe cómo llegar a ese paso, luego puede omitir la siguiente sección citada.
Sí, puede llegar a ese paso mediante la expansión de fracciones parciales. La serie en su forma actual es la siguiente:
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ dfrac {1} {n (n + 1)} \ tag * { }
Puede suponer que el interior de la suma se puede representar mediante una función de números reales, o una función de x, expandida en dos nuevas fracciones,
\ dfrac {1 } {x (x + 1)} = \ dfrac {A} {x} + \ dfrac {B} {x + 1} \ tag * {}
Multiplicando por un denominador común,
1 = A (x + 1) + B (x) \ tag * {}
Dado que x \ in \ mathbb R, dejaremos x = 0 y encontraremos A = 1 .De manera similar, dejando x = -1 nos da B = -1, por lo que podemos reescribir el argumento de la suma como
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ left (\ dfrac {1} {n} – \ dfrac {1} {n + 1} \ right) \ tag * {}
La suma es asociativa, así que reescribe esta suma parcial:
\ left (\ dfrac 1 1+ \ dfrac 1 1 \ right) + \ left (- \ dfrac 1 2+ \ dfrac 1 2 \ right) + \ left (- \ dfrac 1 3+ \ dfrac 1 3 \ right ) – \ dfrac 1 4 \ tag * {}
Que luego se vuelve trivial.
2- \ dfrac 1 4 \ tag * {}
Nosotros Ahora regresaremos a nuestra serie infinita (3) y reemplazaremos los primeros 4 términos con 2- \ frac 1 4 y veremos qué sucede a partir de ahí.
2- \ dfrac 1 4+ \ dfrac 1 4 \ cdot \ dfrac 1 5+ \ dfrac 1 5 \ cdot \ dfrac 1 6+ \ dfrac 1 6 \ cdot \ dfrac 1 7 … \ tag * {}
Usando el truco que usamos anteriormente,
2- \ dfrac 1 4+ \ dfrac 1 4- \ dfrac 1 5+ \ dfrac 1 5- \ dfrac 1 6+ \ dfrac 1 6- \ dfrac 1 7 … \ tag * {}
Y ahora el valor de esta suma infinita se hace evidente.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … = 2 \ tag * {}
¡Genial! Así que ahora sabemos que la suma en cuestión converge a un valor menor que 2. Para aquellos curiosos, \ frac {\ pi ^ 2} {6} \ approx 1.644.
Ahora podemos comenzar a demostrar Identidad real de Euler:
Suponga que \ sin x puede expresarse como un polinomio infinito.
\ sin x = a + bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Ahora podemos encontrar todos los términos del polinomio trivialmente. Comience dejando x = 0
\ sin 0 = a + b0 + c0 ^ 2 + d0 ^ 3 … \ tag * {}
0 = a \ tag * { }
Entonces nuestro nuevo polinomio infinito se convierte en
\ sin x = bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Diferenciar ambos lados
\ cos x = b + 2cx + 3dx ^ 2 … \ tag * {}
Configuración x = 0,
1 = b \ tag * {}
Diferenciar y establecer x = 0 nos da un polinomio infinito para \ sin x. Si continúa haciendo esto para siempre, eventualmente llegará a la conclusión de que
\ sin x = 0 + 1x- \ dfrac {1} {2 \ cdot 3} x ^ 3 + … \ tag * {}
Lo que se simplifica a
\ sin x = \ dfrac {x} {1!} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} … \ tag * {}
Así que acabamos de recuperar la serie Maclaurin para \ sin x. Me disculpo, pero sentí la necesidad de incluir la prueba, ya que de todos modos ya estamos probando otras cosas.
Si bien esta es ciertamente una expansión viable para \ sin x, Euler adoptó un enfoque diferente. Observa la gráfica de \ sin x, \, x \ en [- \ pi, \ pi]. Sabemos que hay ceros en x = – \ pi, \, 0, \, \ pi, por lo que si modelamos este gráfico, podemos escribir una función cúbica con ceros en – \ pi, \, 0, \, \ pi.
f (x) = x (\ pi + x) (\ pi-x) \ tag * {}
Que se ve así:
Por supuesto, esto no se parece mucho a f (x) = \ sin x en absoluto, pero podemos escalarlo multiplicando el función por alguna constante. Después de mucho tocar el violín, vemos que la constante que hace que la gráfica se ajuste mejor a \ sin x es \ frac {1} {\ pi ^ 2}. Veamos nuestro nuevo gráfico de
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi-x) \ tag * {}
Lo cual, aunque no es exacto, es mucho mejor. Manipulemos nuestra función aquí, y verá por qué sucede esto más adelante.
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi -x) \ etiqueta * {}
f (x) = \ dfrac {1} {\ pi} (\ pi + x) \ cdot \ dfrac {1} {\ pi} (\ pi- x) x \ etiqueta * {}
f (x) = x \ left (1+ \ dfrac {x} {\ pi} \ right) \ left (1- \ dfrac {x} {\ pi} \ right) \ tag * {}
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ tag * {}
Pero no hemos aproximado la función completa. Para hacer eso, necesitaremos determinar nuevos términos que agreguen nuevos ceros en x = 2 \ pi, \, – 2 \ pi. No mostraré el álgebra de nuevo y puedes verificarlo si quieres, pero nuestra nueva función se convierte en:
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ tag * {}
Y después de esto patrón de agregar nuevos términos para recibir nuestros nuevos ceros, nuestra nueva función modela perfectamente la de \ sin x.
f (x) = \ sin x = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ right) … \ tag {4}
Y aquí son los gráficos, uno al lado del otro.
* Si bien no son exactos, este es el gráfico escrito en 7 términos . Pido disculpas por no poder salir hasta el infinito, pero no tuve toda la noche. Sin embargo, esto será suficiente, ya que su propósito era mostrar las similitudes entre este gráfico y \ sin x.
Estamos llegando allí, ¡así que prepárense! Si lo desea, haga clic fuera de esta respuesta y vea si puede continuar el resto del camino desde aquí. ¡Buena suerte si lo haces!
Vamos a someternos a pura tortura, así que multiplica (4). Saltaré el álgebra porque no estamos aquí para volvernos locos.
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right ) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ right) \ izquierda (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ right) … \ etiqueta {4}
f (x) = \ left (x- \ dfrac {x ^ 3} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) … \ tag * {}
f (x) = \ left (x + \ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3 + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ derecha) …\ tag * {}
Nos vamos a centrar únicamente en el coeficiente del término x ^ 3 a partir de aquí, así que vamos a encajonarlo.
f (x) = \ left (x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3} + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} … \ right) \ tag * {}
Bien, ahora multipliquemos el siguiente término por el primero. Nuevamente, te ahorraré los bits de álgebra.
x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
Entonces, a partir de aquí, queda bastante claro cómo se verá el coeficiente de x ^ 3. Ya no necesitamos hacer álgebra, ya que podemos seguir el patrón y asumir que esto continuará sucediendo para cada término. Después de esto, compararemos esta suma infinita con nuestra serie de Maclaurin para \ sin x.
\ sin x = x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \ dfrac {1} {(4 \ pi) ^ 2} – \ enspace … \ enspace \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
\ sin x = \ dfrac {x} {1 !} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} + \ dfrac {x ^ 9} {9!} – \ dfrac {x ^ {11}} {11!} + … \ tag * {}
Por comparación de coeficientes, vemos que
– \ dfrac {x ^ 3} {3!} = \ Left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, … \ right) x ^ 3 \ tag * {}
Elimina x ^ 3 de ambos lados.
– \ dfrac {1} {3 !} = – \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, .. . \ tag * {}
Multiplica ambos lados por -1:
\ dfrac {1} {3!} = \ dfrac {1} {\ pi ^ 2} + \ dfrac {1} {(2 \ pi) ^ 2} + \ dfrac {1} {(3 \ pi) ^ 2} + \ dfrac {1} {(4 \ pi) ^ 2} + \ dfrac {1} { (5 \ pi) ^ 2} + … \ tag * {}
Multiplica por \ pi ^ 2
\ dfrac {\ pi ^ 2} {3!} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} { 5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
¡Evalúa 3! y ahí está:
\ dfrac {\ pi ^ 2} {6} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1 } {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Identidad real de Euler.
Citas:
Mi profesor: Tan Nguyen
Respuesta
¡Oh, hombre, lo echaste a perder por completo! No es así como haces la pregunta, ¡ven en !
Lo haces así: ¿Qué es
\ Displaystyle \ lim\_ {n \ to \ infty} e ^ {- n} \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} \, \, \ text {?}
Y luego te sientas y disfrutas del espectáculo de todos diciendo que es obviamente 1, y ellos explican por qué, y está tan claro que no es así. Ni siquiera requieren pruebas, pero les pides que lo prueben de todos modos, y lo intentan, y fallan (o peor aún: tienen éxito), y les preguntas si todavía creen que es 1, y dicen que sí, pero algo de la confianza se ha ido, y los juegas todo el tiempo que te plazca hasta que les informas que tienen exactamente un 100\% de descuento.
Entonces, ¿por qué todos piensan que este límite es igual a 1 y por qué no es cierto y por qué ¿Es realmente \ frac {1} {2}?
Bueno, para n muy grande, la suma \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} es aproximadamente e ^ n. ¿Correcto? Es solo la serie de Taylor de la función exponencial. Entonces multiplicamos eso por e ^ {- n} y obtenemos aproximadamente 1, y a medida que dejamos que n crezca, esto se vuelve cada vez más preciso, por lo que el límite tiene que ser simplemente 1. Quiero decir, tiene .
¿Verdad?
Mal.
Entonces, ¿qué pasa aquí? Bueno, puede que te sientas un poco incómodo con el asunto de Taylor. Quiero decir, claro, la suma
\ displaystyle \ sum\_ {k = 0} ^ n \ frac {x ^ k} {k!}
Es una suma parcial de Taylor serie de e ^ x, por lo que su límite para x fijo como n \ to \ infty es de hecho e ^ x. Pero aquí estamos haciendo algo un poco sospechoso: le pedimos a n que realice una doble función como rango de suma y variable de la serie de potencias.
Una cosa, en cualquier caso, debería quedar clara: la declaración
\ Displaystyle e ^ n =? = \ lim\_ {n \ to \ infty} \ sum\_ {k = 0} ^ {n} \ frac {n ^ k} {k!}
no tiene ningún sentido. La variable n está libre en el lado izquierdo y limitada a la derecha.
Ok. Entonces esa interpretación ingenua está fuera de la ventana. ¿Cómo evaluamos ese límite?
Existe una manera hermosa y magistral de resolver esto que es casi un juego de manos. Es así: esta es precisamente la probabilidad límite de que una variable aleatoria de Poisson con parámetro \ lambda = n sea menor que su expectativa. Dicha variable se distribuye como la suma de n variables de Poisson independientes con parámetro \ lambda = 1, y dicha suma (normalizada por su varianza, \ sqrt {n}, que no importa aquí) converge en distribución a una normal distribución. ¿Cuál es la probabilidad de que una variable aleatoria normal sea menor que su media? Por qué es \ frac {1} {2}, por supuesto. Hecho. QED.
Espera, ¿qué?
Sí, de verdad. Si conoce el teorema del límite central, esto es exactamente lo que dice si toma las variables aleatorias X\_1, X\_2, \ ldots, cada una de las cuales es Poisson (1). Buen ejercicio de rutina para aplicar CLT a variables aleatorias de Poisson.
Pero, ¿qué pasa si no conoce el CLT o simplemente no se le ocurrió interpretar este límite como una probabilidad?
Entonces, honestamente, esto es bastante problema difícil. El CLT es un poderoso teorema que esconde bastante teoría, ofreciéndola virtualmente gratis. Sin él, estás solo aquí, y no conozco una manera realmente fácil de demostrarlo. Se necesitan algunas manipulaciones y transformaciones integrales inteligentes.