Beste Antwort
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + … = \ dfrac {\ pi ^ 2} {6} \ tag {1}
Dafür gibt es einen hervorragenden Beweis, und dieser Beweis ist tatsächlich, wie Euler diese Identität zum ersten Mal bewiesen hat. Natürlich muss ich meinem Professor dafür danken, dass er mir diese Identität gezeigt hat. (Alle Quora-Konten sind am Ende dieser Antwort auf der Registerkarte „Zitate“ aufgeführt.) Der einzige Kalkül, der erforderlich ist, um diesen Beweis zu verstehen, ist die Potenzregel, die Sie immer noch ohne Wissen umgehen können.
\ dfrac {\ mathrm d} {\ mathrm dx} [x ^ n] = nx ^ {n-1} \ tag * {}
Wir beginnen mit einer kleinen Geschichte der Mathematik. Eulers wahre Identität ist nicht e ^ {i \ pi} + 1 = 0. Tatsächlich schrieb ein Mathematiker namens Roger Cotes über diese Jahrzehnte vor Euler, aber Euler war berühmter, so dass ihm seine Entdeckung zugeschrieben wurde. Die Identität, die sich als Eulers Anspruch auf Ruhm erwies, war tatsächlich
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} … = \ dfrac {\ pi ^ 2} {6} \ tag * {}
* Als lustige Tatsache gibt es ein Gesetz namens Stigler-Gesetz, das besagt, dass keine wissenschaftliche Entdeckung vorliegt ist nach seinem ursprünglichen Entdecker benannt. Aus Gründen der Kohärenz wurde dieses Gesetz natürlich zuerst von Robert Merton vorgeschlagen. Beispiele für dieses Gesetz sind Eulers Identität, entdeckt von Roger Cotes, Hubbles Gesetz, abgeleitet von George Lemaitre und Pythagoras Theorem, das von babylonischen Mathematikern viel vor Pythagoras entdeckt wurde. Wie auch immer, zurück zur Antwort.
Dieses Problem gab es schon viel vor Euler, aber es wurde erst von ihm gelöst. Zu dieser Zeit hatten Mathematiker wie Jacob Bernoulli, Johan Bernoulli, Leibniz und John Wallis viel vor Euler an dem Problem gearbeitet, konnten jedoch keinen genauen Wert für das betreffende Problem finden. Tatsächlich wurde dieses Problem so groß, dass es seinen eigenen Namen bekam: das Basler Problem.
Um zu beweisen, dass Eulers Summe überhaupt konvergiert, müssen wir es aus diesem
dazu.
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
Dies sind offensichtlich dieselben Dinge, aber nur unterschiedlich ausgedrückt. Ich werde Ihnen gleich zeigen, warum (2) hier nützlicher ist als (1).
Nehmen Sie (2) und ändern Sie es dann. Da es sehr schwierig ist, es in Worten auszudrücken, muss ich es Ihnen nur zeigen:
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
\ impliziert
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Also haben wir den Wert der unendlichen Summe geändert, keine Sorge, ich versuche nicht, Dinge an Ihnen vorbei zu schieben. Analysieren wir (3).
Diese neue Reihe scheint größer als (2) zu sein. Der erste Term in (2) und (3) ist offensichtlich gleich. Der zweite Term in (3) ist sicherlich größer als (2) und wir sehen, dass dieser Prozess bis ins Unendliche andauert. Dies bedeutet, dass, wenn diese Reihe (3) konvergiert, auch die andere (2) konvergiert.
Daher ist dieser Teil für die meisten Menschen möglicherweise nicht offensichtlich, was in Ordnung ist. es war mir auch zunächst nicht klar.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Wir werden die Reihe nach den ersten 4 Termen abschneiden und die Teilsumme finden.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 \ tag * {}
Für diejenigen, die es nicht wissen, kann diese Serie wie folgt umgeschrieben werden:
\ dfrac {1} {1} + \ left (\ dfrac 1 1- \ dfrac 1 2 \ right) + \ links (\ dfrac 1 2 – \ dfrac 1 3 \ rechts) + \ links (\ dfrac 1 3- \ dfrac 1 4 \ rechts) \ tag * {}
Edit:
Ich erhielt eine Frage, wie wir zu der neuen Serie kommen können, und dies war meine Antwort:
* Wenn Sie wissen, wie es geht Wenn Sie zu diesem Schritt gelangen, können Sie diesen nächsten Abschnitt überspringen.
Ja, Sie können diesen Schritt durch teilweise Brucherweiterung erreichen. Die Serie in ihrer aktuellen Form lautet wie folgt:
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ dfrac {1} {n (n + 1)} \ tag * { }
Sie können davon ausgehen, dass das Innere der Summe durch eine Funktion reeller Zahlen oder eine Funktion von x dargestellt werden kann, die in zwei neue Brüche erweitert wurde:
\ dfrac {1 } {x (x + 1)} = \ dfrac {A} {x} + \ dfrac {B} {x + 1} \ tag * {}
Multiplizieren mit einem gemeinsamen Nenner,
1 = A (x + 1) + B (x) \ tag * {}
Da x \ in \ mathbb R ist, lassen wir x = 0 und finden A = 1 .Wenn wir x = -1 lassen, erhalten wir B = -1, sodass wir das Argument der Summe als
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ left umschreiben können (\ dfrac {1} {n} – \ dfrac {1} {n + 1} \ right) \ tag * {}
Addition ist assoziativ, also schreiben Sie diese Teilsumme neu:
\ left (\ dfrac 1 1+ \ dfrac 1 1 \ right) + \ left (- \ dfrac 1 2+ \ dfrac 1 2 \ right) + \ left (- \ dfrac 1 3+ \ dfrac 1 3 \ right ) – \ dfrac 1 4 \ tag * {}
Was dann trivial wird.
2- \ dfrac 1 4 \ tag * {}
We Ich gehe jetzt zurück zu unserer unendlichen Reihe (3) und ersetze die ersten 4 Terme durch 2- \ frac 1 4 und sehe, was von dort aus passiert.
2- \ dfrac 1 4+ \ dfrac 1 4 \ cdot \ dfrac 1 5+ \ dfrac 1 5 \ cdot \ dfrac 1 6+ \ dfrac 1 6 \ cdot \ dfrac 1 7 … \ tag * {}
Verwenden Sie den zuvor verwendeten Trick
2- \ dfrac 1 4+ \ dfrac 1 4- \ dfrac 1 5+ \ dfrac 1 5- \ dfrac 1 6+ \ dfrac 1 6- \ dfrac 1 7 … \ tag * {}
Und jetzt wird der Wert für diese unendliche Summe offensichtlich.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … = 2 \ tag * {}
Großartig! Wir wissen jetzt, dass die fragliche Summe gegen einen Wert von weniger als 2 konvergiert. Für diejenigen, die neugierig sind, \ frac {\ pi ^ 2} {6} \ ca. 1.644.
Wir können jetzt beginnen zu beweisen Eulers wahre Identität:
Angenommen, \ sin x kann als unendliches Polynom ausgedrückt werden.
\ sin x = a + bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Wir können jetzt alle Begriffe des Polynoms trivial finden. Beginnen Sie, indem Sie x = 0
\ sin 0 = a + b0 + c0 ^ 2 + d0 ^ 3 … \ tag * {}
0 = a \ tag * { }
Unser neues unendliches Polynom wird dann
\ sin x = bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Differenzieren beider Seiten
\ cos x = b + 2cx + 3dx ^ 2 … \ tag * {}
Setzen von x = 0,
1 = b \ tag * {}
Durch Differenzieren und Setzen von x = 0 erhalten wir ein unendliches Polynom für \ sin x. Wenn Sie dies für immer tun, werden Sie schließlich zu dem Schluss kommen, dass
\ sin x = 0 + 1x- \ dfrac {1} {2 \ cdot 3} x ^ 3 + … \ tag * {}
Dies vereinfacht
\ sin x = \ dfrac {x} {1!} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} … \ tag * {}
Wir haben also gerade die Maclaurin-Serie für \ sin x wiederhergestellt. Ich entschuldige mich, aber ich hatte das Bedürfnis, den Beweis dafür beizufügen, da wir sowieso bereits andere Dinge beweisen.
Während dies sicherlich eine praktikable Erweiterung für \ sin x ist, verfolgte Euler einen anderen Ansatz. Schauen Sie sich das Diagramm von \ sin x, \, x \ in [- \ pi, \ pi] an. Wir wissen, dass es bei x = – \ pi, \, 0, \, \ pi Nullen gibt. Wenn wir also diesen Graphen modellieren, können wir eine kubische Funktion mit Nullen bei – \ pi, \, 0, \, schreiben. \ pi.
f (x) = x (\ pi + x) (\ pi-x) \ tag * {}
Das sieht so aus:
Natürlich sieht dies überhaupt nicht nach f (x) = \ sin x aus, aber wir können es skalieren, indem wir das multiplizieren Funktion durch eine Konstante. Nach langem Hin und Her sehen wir, dass die Konstante, mit der der Graph am besten zu \ sin x passt, \ frac {1} {\ pi ^ 2} ist. Sehen wir uns unser neues Diagramm von
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi-x) \ tag * {}
Das ist zwar nicht genau, aber viel besser. Lassen Sie uns unsere Funktion hier manipulieren, und Sie werden später sehen, warum dies geschieht.
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi -x) \ tag * {}
f (x) = \ dfrac {1} {\ pi} (\ pi + x) \ cdot \ dfrac {1} {\ pi} (\ pi- x) x \ tag * {}
f (x) = x \ left (1+ \ dfrac {x} {\ pi} \ right) \ left (1- \ dfrac {x} {\ pi} \ right) \ tag * {}
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ tag * {}
Wir haben jedoch nicht die gesamte Funktion angenähert. Dazu müssen wir neue Terme bestimmen, die bei x = 2 \ pi, \, – 2 \ pi neue Nullen hinzufügen. Ich werde die Algebra nicht mehr anzeigen und Sie können sie überprüfen, wenn Sie möchten, aber unsere neue Funktion lautet:
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ tag * {}
Und danach Muster des Hinzufügens neuer Terme, um unsere neuen Nullen zu erhalten, modelliert unsere neue Funktion perfekt die von \ sin x.
f (x) = \ sin x = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ rechts) \ links (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ rechts) \ links (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ rechts) \ links (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ rechts) … \ tag {4}
Und hier sind die Diagramme nebeneinander.
* Obwohl sie nicht genau sind, ist dies das Diagramm, das in 7 Begriffe geschrieben wurde . Ich entschuldige mich, dass ich nicht bis unendlich ausgehen konnte, aber ich hatte nicht die ganze Nacht Zeit. Dies wird jedoch ausreichen, da der Zweck darin bestand, die Ähnlichkeiten zwischen diesem Diagramm und \ sin x aufzuzeigen.
Wir kommen dorthin, also bereiten Sie sich vor! Wenn Sie möchten, klicken Sie von dieser Antwort weg und prüfen Sie, ob Sie den Rest des Weges von hier aus gehen können. Viel Glück, wenn Sie das tun!
Wir werden uns reiner Folter aussetzen, also multiplizieren Sie (4). Ich werde die Algebra überspringen, weil wir nicht hier sind, um verrückt zu werden.
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right ) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ right) … \ tag {4}
f (x) = \ left (x- \ dfrac {x ^ 3} {\ pi ^ 2} \ rechts) \ links (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ rechts) … \ tag * {}
f (x) = \ left (x + \ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3 + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ rechts) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ richtig) …\ tag * {}
Ab hier konzentrieren wir uns ausschließlich auf den Koeffizienten des x ^ 3-Terms.
f (x) = \ left (x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3} + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ rechts) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} … \ right) \ tag * {}
Okay, multiplizieren wir jetzt den nächsten Term mit dem ersten. Ich werde Sie wieder von den Algebra-Bits verschonen.
x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
Von hier aus ist es ziemlich klar, wie der Koeffizient auf x ^ 3 aussehen wird. Wir müssen keine Algebra mehr machen, da wir einfach dem Muster folgen und davon ausgehen können, dass dies für jeden Begriff weiterhin geschieht. Danach vergleichen wir diese unendliche Summe mit unserer Maclaurin-Reihe für \ sin x.
\ sin x = x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \ dfrac {1} {(4 \ pi) ^ 2} – \ enspace … \ enspace \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
\ sin x = \ dfrac {x} {1 !} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} + \ dfrac {x ^ 9} {9!} – \ dfrac {x ^ {11}} {11!} + … \ tag * {}
Beim Koeffizientenvergleich sehen wir, dass
– \ dfrac {x ^ 3} {3!} = \ Left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, … \ right) x ^ 3 \ tag * {}
Entfernen Sie das x ^ 3 von beiden Seiten.
– \ dfrac {1} {3 !} = – \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, .. . \ tag * {}
Multiplizieren Sie beide Seiten mit -1:
\ dfrac {1} {3!} = \ dfrac {1} {\ pi ^ 2} + \ dfrac {1} {(2 \ pi) ^ 2} + \ dfrac {1} {(3 \ pi) ^ 2} + \ dfrac {1} {(4 \ pi) ^ 2} + \ dfrac {1} { (5 \ pi) ^ 2} + … \ tag * {}
Multiplizieren Sie mit \ pi ^ 2
\ dfrac {\ pi ^ 2} {3!} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} { 5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Bewerten Sie 3! und da ist es:
\ dfrac {\ pi ^ 2} {6} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1 } {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Eulers wahre Identität.
Zitate:
Mein Professor: Tan Nguyen
Antwort
Oh Mann, Sie haben es total verdorben! So stellen Sie die Frage nicht, kommen Sie auf !
Sie stellen sie folgendermaßen: Was ist
\ displaystyle \ lim\_ {n \ to \ infty} e ^ {- n} \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} \, \, \ text {?}
Und dann lehnen Sie sich zurück und genießen das Schauspiel aller, die sagen, dass es offensichtlich 1 ist, und sie erklären, warum und es ist so klar, dass dies nicht der Fall ist. Sie benötigen nicht einmal Beweise, aber Sie bitten sie, es trotzdem zu beweisen, und sie versuchen es, und sie scheitern (oder schlimmer noch: Erfolg), und Sie fragen sie, ob sie immer noch denken, dass es 1 ist, und sie sagen ja, aber ein Teil des Vertrauens ist weg. und du spielst sie so lange, wie es dir gefällt, bis du ihnen mitteilst, dass sie genau 100\% günstiger sind.
Also, warum glaubt jeder, dass diese Grenze gleich 1 ist, und warum ist das nicht wahr und warum ist es tatsächlich \ frac {1} {2}?
Nun, für n sehr groß ist die Summe \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} ungefähr e ^ n. Recht? Es ist nur die Taylor-Reihe der Exponentialfunktion. Dann multiplizieren wir das mit e ^ {- n} und erhalten nur ungefähr 1, und wenn wir n wachsen lassen, wird dies immer genauer, daher muss die Grenze einfach 1 sein. Ich meine es muss .
Richtig?
Falsch.
Also, was ist hier falsch? Nun, Sie fühlen sich vielleicht ein wenig unwohl bei diesem Taylor-Geschäft. Ich meine, sicher, die Summe
\ displaystyle \ sum\_ {k = 0} ^ n \ frac {x ^ k} {k!}
ist eine Teilsumme des Taylor Reihe von e ^ x, so dass seine Grenze für festes x als n \ bis \ infty tatsächlich e ^ x ist. Aber hier machen wir etwas Verdächtiges: Wir bitten n, sowohl als Summationsbereich als auch als Variable der Potenzreihe eine doppelte Aufgabe zu erfüllen.
Eines sollte auf jeden Fall klar sein: die Anweisung
\ displaystyle e ^ n =? = \ lim\_ {n \ to \ infty} \ sum\_ {k = 0} ^ {n} \ frac {n ^ k} {k!}
macht überhaupt keinen Sinn. Die Variable n ist auf der linken Seite frei und auf der rechten Seite gebunden.
Ok. Diese naive Interpretation ist also aus dem Fenster. Wie bewerten wir diese Grenze?
Es gibt eine schöne, meisterhafte Möglichkeit, dieses Problem zu lösen, die fast ein Kinderspiel ist. Es geht so: Dies ist genau die Grenzwahrscheinlichkeit einer zufälligen Poisson-Variablen mit dem Parameter \ lambda = n, die unter ihrer Erwartung liegt. Eine solche Variable wird genau wie die Summe von n unabhängigen Poisson-Variablen mit dem Parameter \ lambda = 1 verteilt, und eine solche Summe (normalisiert durch ihre Varianz \ sqrt {n}, die hier keine Rolle spielt) konvergiert in der Verteilung zu einer Normalen Verteilung. Wie groß ist die Wahrscheinlichkeit, dass eine normale Zufallsvariable unter ihrem Mittelwert liegt? Warum es natürlich \ frac {1} {2} ist. Erledigt. QED.
Warten Sie, was?
Ja, wirklich. Wenn Sie den zentralen Grenzwertsatz kennen, ist dies genau das, was er sagt, wenn Sie Zufallsvariablen X\_1, X\_2 nehmen, von denen jede Poisson (1) ist. Gute Routineübung bei der Anwendung von CLT auf zufällige Poisson-Variablen.
Aber was ist, wenn Sie nichts über die CLT wissen oder es Ihnen einfach nicht in den Sinn gekommen ist, diese Grenze als Wahrscheinlichkeit zu interpretieren?
Dann ist dies ehrlich gesagt eine ziemliche Herausforderung schweres Problem. Das CLT ist ein leistungsfähiges Theorem, das einiges an Theorie verbirgt und es praktisch kostenlos anbietet. Ohne sie bist du hier alleine und ich kenne keinen wirklich einfachen Weg, dies zu beweisen. Einige clevere integrale Manipulationen und Transformationen sind erforderlich.