Hvad er en intuitiv forklaring på følgende matematiske kendsgerning: [matematik] \ displaystyle \ sum\_ {n = 1} ^ {\ infty} {\ frac {1} {n ^ 2}} = \ frac {\ pi ^ 2} {6} [/ matematik]?

Bedste svar

\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + … = \ dfrac {\ pi ^ 2} {6} \ tag {1}

Der er et fremragende bevis for dette, og dette bevis er faktisk, hvordan Euler først beviste denne identitet. Selvfølgelig må jeg anerkende min professor for at have vist mig denne identitet. (Alle Quora-konti er anført i fanen “Citater” i slutningen af ​​dette svar) Endelig er den eneste beregning, der kræves for at forstå dette bevis, magtreglen, som du stadig kan klare dig uden at vide.

\ dfrac {\ mathrm d} {\ mathrm dx} [x ^ n] = nx ^ {n-1} \ tag * {}

Vi begynder med en lille historie med matematik. Eulers virkelige identitet er ikke e ^ {i \ pi} + 1 = 0. Faktisk skrev en matematiker ved navn Roger Cotes om dette årtier før Euler, men Euler var mere berømt, så han blev krediteret dets opdagelse. Den identitet, der viste sig at være Eulers krav på berømmelse, var faktisk

\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} … = \ dfrac {\ pi ^ 2} {6} \ tag * {}

* Som en sjov kendsgerning er der en lov, kaldet Stiglers lov, der siger, at ingen videnskabelig opdagelse er opkaldt efter sin oprindelige opdagelsesrejsende. Selvfølgelig af hensyn til konsistens blev denne lov først foreslået af Robert Merton. Eksempler på denne lov inkluderer Eulers identitet, opdaget af Roger Cotes, Hubbles lov, afledt af George Lemaitre og Pythagoreas sætning opdaget af babylonske matematikere meget før Pythagoras. I hvert fald tilbage til svaret.

Dette problem var meget før Euler, men blev ikke løst før ham. Matematikere på det tidspunkt som Jacob Bernoulli, Johan Bernoulli, Leibniz og John Wallis havde arbejdet på problemet meget før Euler, men kunne ikke komme med en nøjagtig værdi for det pågældende problem. Faktisk begyndte dette problem at blive så stort, at det fik sit eget navn: Basel-problemet.

For at bevise Eulers sum konvergerer i første omgang, er vi nødt til at omskrive det fra dette

\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} … \ tag {1}

til dette.

\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}

Disse er begge tydeligvis de samme ting, men udtrykkes bare forskelligt. Jeg viser dig, hvorfor (2) er mere nyttigt end (1) her om et sekund.

Tag (2), og skift den derefter. Da det er meget vanskeligt at udtrykke med ord, bliver jeg bare nødt til at vise dig det:

\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}

\ implicerer

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}

Så vi har ændret værdien af ​​den uendelige sum. Bare rolig, jeg prøver ikke at glide ting forbi dig. Lad os analysere (3).

Denne nye serie ser ud til at være større end (2). Den første periode i både (2) og (3) er åbenlyst lig med hinanden. Det andet udtryk i (3) er bestemt større end (2), og vi ser, at denne proces fortsætter til uendelig. Dette betyder, at hvis denne serie (3) konvergerer, så gør den anden (2) også.

Så denne del er muligvis ikke indlysende for de fleste mennesker, hvilket er fint; det var heller ikke indlysende for mig i starten.

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}

Vi afskærer serien efter de første 4 termer og finder den delvise sum.

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 \ tag * {}

For dem der ikke ved, kan denne serie omskrives som:

\ dfrac {1} {1} + \ left (\ dfrac 1 1- \ dfrac 1 2 \ right) + \ venstre (\ dfrac 1 2 – \ dfrac 1 3 \ højre) + \ venstre (\ dfrac 1 3- \ dfrac 1 4 \ højre) \ tag * {}

Edit:

Jeg modtog et spørgsmål, der spurgte, hvordan vi kan komme til den nye serie, og dette var mit svar:

* Hvis du ved, hvordan man kom til dette trin, så kan du springe over dette næste citerede afsnit.

Ja, du kan komme til dette trin ved delvis brøkudvidelse. Serien i den nuværende form er denne:

1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ dfrac {1} {n (n + 1)} \ tag * { }

Du kan antage, at indersiden af ​​summen kan repræsenteres af en funktion af reelle tal eller en funktion af x, udvidet til to nye brøker,

\ dfrac {1 } {x (x + 1)} = \ dfrac {A} {x} + \ dfrac {B} {x + 1} \ tag * {}

Multiplikation med en fællesnævner,

1 = A (x + 1) + B (x) \ tag * {}

Da x \ i \ mathbb R, lader vi x = 0 og finde A = 1 .På samme måde giver x = -1 os B = -1, så vi kan omskrive argumentet for summen som

1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ left (\ dfrac {1} {n} – \ dfrac {1} {n + 1} \ right) \ tag * {}

Tilføjelse er associerende, så omskriv denne delsum:

\ venstre (\ dfrac 1 1+ \ dfrac 1 1 \ højre) + \ venstre (- \ dfrac 1 2+ \ dfrac 1 2 \ højre) + \ venstre (- \ dfrac 1 3+ \ dfrac 1 3 \ højre ) – \ dfrac 1 4 \ tag * {}

Hvilket derefter bliver trivielt.

2- \ dfrac 1 4 \ tag * {}

We Nu vender vi tilbage til vores uendelige serie (3) og erstatter de første 4 termer med 2- \ frac 14 og se hvad der sker derfra.

2- \ dfrac 1 4+ \ dfrac 1 4 \ cdot \ dfrac 1 5+ \ dfrac 1 5 \ cdot \ dfrac 1 6+ \ dfrac 1 6 \ cdot \ dfrac 1 7 … \ tag * {}

Brug af det trick, vi brugte tidligere,

2- \ dfrac 1 4+ \ dfrac 1 4- \ dfrac 1 5+ \ dfrac 1 5- \ dfrac 1 6+ \ dfrac 1 6- \ dfrac 1 7 … \ tag * {}

Og nu vises værdien for denne uendelige sum.

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … = 2 \ tag * {}

Fantastisk! Så vi ved nu, at den pågældende sum konvergerer til en værdi mindre end 2. For de nysgerrige \ frac {\ pi ^ 2} {6} \ ca. 1.644.

Vi kan nu begynde at bevise Eulers virkelige identitet:

Antag at \ sin x kan udtrykkes som et uendeligt polynom.

\ sin x = a + bx + cx ^ 2 + dx ^ 3 + … \ tag * {}

Vi kan nu finde alle vilkårene for polynomet trivielt. Start med at lade x = 0

\ sin 0 = a + b0 + c0 ^ 2 + d0 ^ 3 … \ tag * {}

0 = a \ tag * { }

Så vores nye uendelige polynom bliver derefter

\ sin x = bx + cx ^ 2 + dx ^ 3 + … \ tag * {}

At differentiere begge sider

\ cos x = b + 2cx + 3dx ^ 2 … \ tag * {}

Indstilling x = 0,

1 = b \ tag * {}

Differentiering og indstilling x = 0 giver os et uendeligt polynom for \ sin x. Hvis du fortsatte med at gøre dette for evigt, vil du til sidst nå den konklusion, at

\ sin x = 0 + 1x- \ dfrac {1} {2 \ cdot 3} x ^ 3 + … \ tag * {}

Hvilket forenkler til

\ sin x = \ dfrac {x} {1!} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} … \ tag * {}

Så vi har netop genoprettet Maclaurin Series for \ sin x. Jeg undskylder, men jeg følte behovet for at medtage beviset for det, da vi alligevel allerede viser andre ting.

Selvom dette bestemt er en levedygtig udvidelse for \ sin x, tog Euler en anden tilgang. Se på grafen for \ sin x, \, x \ i [- \ pi, \ pi]. Vi ved, at der er nuller ved x = – \ pi, \, 0, \, \ pi, så hvis vi skulle modellere denne graf, kan vi skrive en kubisk funktion med nuller ved – \ pi, \, 0, \, \ pi.

f (x) = x (\ pi + x) (\ pi-x) \ tag * {}

Hvilket ser sådan ud:

Dette ligner selvfølgelig ikke f (x) = \ sin x overhovedet, men vi kan skalere det ved at multiplicere funktion af nogle konstante. Efter en masse fiddling ser vi, at den konstant, der passer til grafen bedst \ sin x, er \ frac {1} {\ pi ^ 2}. Lad os se vores nye graf for

f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi-x) \ tag * {}

Hvilket er, selvom det ikke er nøjagtigt, meget bedre. Lad os manipulere vores funktion her, og du vil se, hvorfor dette sker senere.

f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi -x) \ tag * {}

f (x) = \ dfrac {1} {\ pi} (\ pi + x) \ cdot \ dfrac {1} {\ pi} (\ pi- x) x \ tag * {}

f (x) = x \ left (1+ \ dfrac {x} {\ pi} \ right) \ left (1- \ dfrac {x} {\ pi} \ højre) \ tag * {}

f (x) = x \ venstre (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ højre) \ tag * {}

Men vi har ikke tilnærmet hele funktionen. For at gøre det skal vi bestemme nye udtryk, der tilføjer nye nuller ved x = 2 \ pi, \, – 2 \ pi. Jeg viser ikke algebraen igen, og du kan frit bekræfte den, hvis du vil, men vores nye funktion bliver:

f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ højre) \ tag * {}

Og efter dette mønster for tilføjelse af nye vilkår for at modtage vores nye nuller, vores nye funktion modellerer perfekt den af ​​\ sin x.

f (x) = \ sin x = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ højre) … \ tag {4}

Og her er graferne side om side.

* Selvom de ikke er nøjagtige, er dette grafen skrevet til 7 termer . Jeg undskylder, at jeg ikke kunne gå ud til uendelig, men jeg havde ikke hele natten. Dette vil dog være tilstrækkeligt, da formålet var at vise lighederne mellem denne graf og \ sin x.

Vi kommer derhen, så forbered jer! Hvis du vil, skal du klikke væk fra dette svar og se, om du kan gå resten af ​​vejen herfra. Held og lykke, hvis du gør det!

Vi udsætter os for ren tortur, så multiplicer ud (4). Jeg springer over algebraen, fordi vi ikke er her for at blive skøre.

f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right ) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ højre) … \ tag {4}

f (x) = \ left (x- \ dfrac {x ^ 3} {\ pi ^ 2} \ højre) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ højre) … \ tag * {}

f (x) = \ left (x + \ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3 + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ højre) \ venstre (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ højre) …\ tag * {}

Vi fokuserer udelukkende på koefficienten for x ^ 3-termen herfra, så lad os sætte den i boks.

f (x) = \ left (x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3} + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ højre) \ venstre (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} … \ right) \ tag * {}

Okay, lad os nu multiplicere den næste periode med den første. Igen sparer jeg dig for algebra-bitene.

x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} \ højre) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}

Så herfra er det ret klart, hvordan koefficienten på x ^ 3 vil se ud. Vi behøver ikke længere gøre algebra, da vi bare kan følge mønsteret og antage, at dette fortsat vil ske for hver periode. Herefter sammenligner vi denne uendelige sum med vores Maclaurin-serie for \ sin x.

\ sin x = x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \ dfrac {1} {(4 \ pi) ^ 2} – \ enspace … \ enspace \ højre) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}

\ sin x = \ dfrac {x} {1 !} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} + \ dfrac {x ^ 9} {9!} – \ dfrac {x ^ {11}} {11!} + … \ tag * {}

Ved sammenligning af koefficienter ser vi, at

– \ dfrac {x ^ 3} {3!} = \ Left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, … \ højre) x ^ 3 \ tag * {}

Fjern x ^ 3 fra begge sider.

– \ dfrac {1} {3 !} = – \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, .. . \ tag * {}

Multiplicer begge sider med -1:

\ dfrac {1} {3!} = \ dfrac {1} {\ pi ^ 2} + \ dfrac {1} {(2 \ pi) ^ 2} + \ dfrac {1} {(3 \ pi) ^ 2} + \ dfrac {1} {(4 \ pi) ^ 2} + \ dfrac {1} { (5 \ pi) ^ 2} + … \ tag * {}

Multiplicer med \ pi ^ 2

\ dfrac {\ pi ^ 2} {3!} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} { 5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}

Evaluer 3! og der er det:

\ dfrac {\ pi ^ 2} {6} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1 } {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}

Eulers virkelige identitet.

Citater:

Min professor: Tan Nguyen

Svar

Åh mand, du forkælet det helt! Sådan stiller du spørgsmålet, kom til !

Du stiller det sådan: Hvad er

\ displaystyle \ lim\_ {n \ to \ infty} e ^ {- n} \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} \, \, \ text {?}

Og så læner du dig tilbage og nyder skuespillet af alle, der siger, at det er selvfølgelig 1, og de forklarer hvorfor, og det er så klart, at det ikke behøver ikke engang bevis, men du beder dem om at bevise det alligevel, og de prøver, og de fejler (eller værre: lykkes), og du spørger dem, om de stadig synes, det er 1, og de siger ja, men noget af tilliden er væk, og du spiller dem lige så længe det behager dig, indtil du informerer dem om, at de er nøjagtigt 100\% i rabat.

Så hvorfor tror alle, at denne grænse er lig med 1, og hvorfor er det ikke sandt, og hvorfor er det faktisk \ frac {1} {2}?

Nå, for n meget stort handler summen \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} om e ^ n. Ret? Det er bare Taylor-serien med den eksponentielle funktion. Så multiplicerer vi det med e ^ {- n} og får næsten 1, og når vi lader n vokse, bliver det bare mere og mere præcist, så grænsen skal være simpelthen 1. Jeg mener det har til.

Ret?

Forkert.

Så hvad er der galt her? Nå, du kan føle dig lidt ubehagelig med den Taylor-forretning. Jeg mener helt sikkert, at summen

\ displaystyle \ sum\_ {k = 0} ^ n \ frac {x ^ k} {k!}

Er en delvis sum af Taylor serie af e ^ x, så dens grænse for fast x som n \ til \ infty er faktisk e ^ x. Men her gør vi noget lidt mistænkeligt: ​​vi beder n om at udføre dobbeltarbejde, da både summeringsområdet og variablen i magtserien.

En ting skal i hvert fald være klar: udsagnet

\ displaystyle e ^ n =? = \ lim\_ {n \ to \ infty} \ sum\_ {k = 0} ^ {n} \ frac {n ^ k} {k!}

giver overhovedet ingen mening. Variablen n er fri på venstre side og bundet til højre.

Ok. Så den naive fortolkning er ude af vinduet. Hvordan gør vi vi vurderer denne grænse?

Der er en smuk, mesterlig måde at løse dette på, der er næsten håndflugt. Det går sådan her: dette er netop den begrænsende sandsynlighed for, at en tilfældig Poisson-variabel med parameteren \ lambda = n er mindre end forventet. En sådan variabel fordeles ligesom summen af ​​n uafhængige Poisson-variabler med parameteren \ lambda = 1, og en sådan sum (normaliseret af dens varians \ sqrt {n}, som ikke betyder noget her) konvergerer i distribution til en normal fordeling. Hvad er sandsynligheden for, at en normal tilfældig variabel er mindre end dens gennemsnit? Hvorfor det er \ frac {1} {2}, selvfølgelig. Færdig. QED.

Vent, hvad?

Ja, virkelig. Hvis du kender til Central Limit Theorem, er det præcis det, der står, hvis du tager tilfældige variabler X\_1, X\_2, \ ldots, som hver især er Poisson (1). God rutinemæssig øvelse i at anvende CLT på tilfældige Poisson-variabler.

Men hvad hvis du ikke ved om CLT, eller hvis det bare ikke var dig at fortolke denne grænse som en sandsynlighed?

Så er det ærligt talt ganske hårdt problem. CLT er en stærk sætning, der skjuler en hel del teori og tilbyder den næsten gratis. Uden det er du alene her, og jeg kender ikke en rigtig nem måde at bevise dette på. Nogle kloge integrerede manipulationer og transformationer er nødvendige.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *