Hva er en intuitiv forklaring på følgende matematiske faktum: [matematikk] \ displaystyle \ sum\_ {n = 1} ^ {\ infty} {\ frac {1} {n ^ 2}} = \ frac {\ pi ^ 2} {6} [/ matematikk]?

Beste svaret

\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + … = \ dfrac {\ pi ^ 2} {6} \ tag {1}

Det er et utmerket bevis på dette, og dette beviset er faktisk hvordan Euler først beviste denne identiteten. Selvfølgelig må jeg kreditere professoren min for å vise meg denne identiteten. (Alle Quora-kontoer er oppført i kategorien «Sitater» på slutten av dette svaret. Til slutt er den eneste kalkulasjonen som kreves for å forstå dette beviset, kraftregelen, som du fremdeles kan klare deg uten å vite. \ dfrac {\ mathrm d} {\ mathrm dx} [x ^ n] = nx ^ {n-1} \ tag * {}

Vi begynner med litt matematikkhistorie. Eulers virkelige identitet er ikke e ^ {i \ pi} + 1 = 0. Faktisk skrev en matematiker ved navn Roger Cotes om dette flere tiår før Euler, men Euler var mer kjent så han ble kreditert oppdagelsen. Identiteten som viste seg å være Eulers påstand om berømmelse var faktisk

\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} … = \ dfrac {\ pi ^ 2} {6} \ tag * {}

* Som et morsomt faktum er det en lov, kalt Stiglers lov, som sier at ingen vitenskapelig funn er oppkalt etter den opprinnelige oppdageren. Selvfølgelig for konsistens ble denne loven først foreslått av Robert Merton. Eksempler på denne loven inkluderer Eulers identitet, oppdaget av Roger Cotes, Hubbles lov, avledet av George Lemaitre og Pythagoreas teorem oppdaget av babylonske matematikere mye før Pythagoras. Uansett, tilbake til svaret.

Dette problemet var mye før Euler, men ble ikke løst før han. Matematikere på den tiden som Jacob Bernoulli, Johan Bernoulli, Leibniz og John Wallis hadde jobbet med problemet mye før Euler, men kunne ikke komme med en eksakt verdi for det aktuelle problemet. Faktisk begynte dette problemet å bli så stort at det fikk sitt eget navn: Basel-problemet.

For å bevise at Eulers sum konvergerer i utgangspunktet, må vi skrive den om fra dette

\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} … \ tag {1}

til dette.

\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}

Disse er begge åpenbart de samme tingene, men bare uttrykt annerledes. Jeg viser deg hvorfor (2) er mer nyttig enn (1) her om et sekund.

Ta (2) og endre det. Siden det er veldig vanskelig å uttrykke med ord, må jeg bare vise deg det:

\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}

\ innebærer

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}

Så vi har endret verdien på den uendelige summen, ikke bekymre deg, jeg prøver ikke å skyve ting forbi deg. La oss analysere (3).

Denne nye serien ser ut til å være større enn (2). Den første termen i både (2) og (3) er åpenbart lik hverandre. Det andre begrepet i (3) er absolutt større enn (2), og vi ser at denne prosessen fortsetter til uendelig. Dette betyr at hvis denne serien (3) konvergerer, så gjør den andre (2) også.

Så denne delen er kanskje ikke åpenbar for folk flest, noe som er greit; det var ikke opplagt for meg først heller.

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}

Vi vil kutte av serien etter de første 4 begrepene og finne den delvise summen.

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 \ tag * {}

For de som ikke vet, kan denne serien skrives om som:

\ dfrac {1} {1} + \ left (\ dfrac 1 1- \ dfrac 1 2 \ right) + \ venstre (\ dfrac 1 2 – \ dfrac 1 3 \ høyre) + \ venstre (\ dfrac 1 3- \ dfrac 1 4 \ høyre) \ tag * {}

Edit:

Jeg mottok et spørsmål der vi spurte hvordan vi kan komme til den nye serien, og dette var mitt svar:

* Hvis du vet hvordan du komme til det trinnet, så kan du hoppe over denne neste siterte delen.

Ja, du kan komme til det trinnet ved delvis utvidelse av brøk. Serien i den nåværende formen er denne:

1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ dfrac {1} {n (n + 1)} \ tag * { }

Du kan anta at innsiden av summen kan representeres av en funksjon av reelle tall, eller en funksjon av x, utvidet til to nye brøker,

\ dfrac {1 } {x (x + 1)} = \ dfrac {A} {x} + \ dfrac {B} {x + 1} \ tag * {}

Multiplikasjon gjennom med en fellesnevner,

1 = A (x + 1) + B (x) \ tag * {}

Siden x \ i \ mathbb R, la vi x = 0 og finne A = 1 .Å la x = -1 gi oss B = -1, slik at vi kan omskrive argumentet til summen som

1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ left (\ dfrac {1} {n} – \ dfrac {1} {n + 1} \ right) \ tag * {}

Tilsetning er assosiativ, så skriv om denne delsummen:

\ venstre (\ dfrac 1 1+ \ dfrac 1 1 \ høyre) + \ venstre (- \ dfrac 1 2+ \ dfrac 1 2 \ høyre) + \ venstre (- \ dfrac 1 3+ \ dfrac 1 3 \ høyre ) – \ dfrac 1 4 \ tag * {}

Som deretter blir trivielt.

2- \ dfrac 1 4 \ tag * {}

We Nå går vi tilbake til den uendelige serien (3) og erstatter de første 4 begrepene med 2- \ frac 1 4 og ser hva som skjer derfra.

2- \ dfrac 1 4+ \ dfrac 1 4 \ cdot \ dfrac 1 5+ \ dfrac 1 5 \ cdot \ dfrac 1 6+ \ dfrac 1 6 \ cdot \ dfrac 1 7 … \ tag * {}

Ved å bruke trikset vi brukte tidligere,

2- \ dfrac 1 4+ \ dfrac 1 4- \ dfrac 1 5+ \ dfrac 1 5- \ dfrac 1 6+ \ dfrac 1 6- \ dfrac 1 7 … \ tag * {}

Og nå blir verdien for denne uendelige summen tydelig.

\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … = 2 \ tag * {}

Flott! Så vi vet nå at den aktuelle summen konvergerer til en verdi mindre enn 2. For de nysgjerrige, \ frac {\ pi ^ 2} {6} \ ca 1.644.

Vi kan nå begynne å bevise Eulers virkelige identitet:

Anta at \ sin x kan uttrykkes som noe uendelig polynom.

\ sin x = a + bx + cx ^ 2 + dx ^ 3 + … \ tag * {}

Vi kan nå finne alle vilkårene for polynomet trivielt. Start med å la x = 0

\ sin 0 = a + b0 + c0 ^ 2 + d0 ^ 3 … \ tag * {}

0 = a \ tag * { }

Så det nye uendelige polynomet vårt blir da

\ sin x = bx + cx ^ 2 + dx ^ 3 + … \ tag * {}

Å skille begge sider

\ cos x = b + 2cx + 3dx ^ 2 … \ tag * {}

Innstilling x = 0,

1 = b \ tag * {}

Differensiering og innstilling x = 0 gir oss et uendelig polynom for \ sin x. Hvis du fortsatte å gjøre dette for alltid, vil du til slutt komme til den konklusjonen at

\ sin x = 0 + 1x- \ dfrac {1} {2 \ cdot 3} x ^ 3 + … \ tag * {}

Som forenkler til

\ sin x = \ dfrac {x} {1!} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} … \ tag * {}

Så vi har nettopp gjenopprettet Maclaurin Series for \ sin x. Jeg beklager, men jeg følte behovet for å ta med beviset for det siden vi allerede har bevist andre ting.

Selv om dette absolutt er en levedyktig utvidelse for \ sin x, tok Euler en annen tilnærming. Ta en titt på grafen til \ sin x, \, x \ i [- \ pi, \ pi]. Vi vet at det er nuller ved x = – \ pi, \, 0, \, \ pi, så hvis vi skulle modellere denne grafen, kan vi skrive en kubisk funksjon med nuller på – \ pi, \, 0, \, \ pi.

f (x) = x (\ pi + x) (\ pi-x) \ tag * {}

Som ser slik ut:

Selvfølgelig ser dette ikke ut som f (x) = \ sin x i det hele tatt, men vi kan skalere det ved å multiplisere funksjon av noen konstant. Etter mye fikling ser vi at konstanten som gjør grafen best mulig \ sin x er \ frac {1} {\ pi ^ 2}. La oss se vår nye graf for

f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi-x) \ tag * {}

Som er, men ikke nøyaktig, mye bedre. La oss manipulere funksjonen vår her, så får du se hvorfor dette skjer senere.

f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi -x) \ tag * {}

f (x) = \ dfrac {1} {\ pi} (\ pi + x) \ cdot \ dfrac {1} {\ pi} (\ pi- x) x \ tag * {}

f (x) = x \ left (1+ \ dfrac {x} {\ pi} \ right) \ left (1- \ dfrac {x} {\ pi} \ høyre) \ tag * {}

f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ høyre) \ tag * {}

Men vi har ikke tilnærmet hele funksjonen. For å gjøre det må vi bestemme nye termer som legger til nye nuller ved x = 2 \ pi, \, – 2 \ pi. Jeg vil ikke vise algebra igjen, og du er fri til å bekrefte det hvis du vil, men vår nye funksjon blir:

f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ tag * {}

Og etter dette mønster for å legge til nye vilkår for å motta våre nye nuller, vår nye funksjon modellerer perfekt den av \ sin x.

f (x) = \ sin x = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ høyre) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ høyre) \ venstre (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ høyre) \ venstre (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ høyre) … \ tag {4}

Og her er grafene, side om side.

* Selv om de ikke er eksakte, er dette grafen skrevet ut til 7 termer . Jeg beklager at jeg ikke kunne gå ut til uendelig, men jeg hadde ikke hele natten. Dette vil imidlertid være tilstrekkelig, siden formålet var å vise likhetene mellom denne grafen og \ sin x.

Vi kommer dit, så forbered deg! Hvis du vil, kan du klikke deg bort fra dette svaret og se om du kan gå resten av veien herfra. Lykke til hvis du gjør det!

Vi kommer til å utsette oss for ren tortur, så multipliser det (4). Jeg hopper over algebraen fordi vi ikke er her for å bli sprø.

f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right ) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ høyre) \ venstre (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ høyre) \ venstre (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ høyre) … \ tag {4}

f (x) = \ left (x- \ dfrac {x ^ 3} {\ pi ^ 2} \ høyre) \ venstre (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ høyre) … \ tag * {}

f (x) = \ left (x + \ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3 + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ høyre) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ høyre) …\ tag * {}

Vi kommer til å fokusere utelukkende på koeffisienten til x ^ 3-begrepet herfra, så la oss legge den i boks.

f (x) = \ left (x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3} + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ høyre) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} … \ right) \ tag * {}

Ok, la oss nå multiplisere neste periode med den første. Igjen, jeg vil spare deg for algebrabitene.

x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} \ høyre) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}

Så herfra er det ganske klart hvordan koeffisienten på x ^ 3 kommer til å se ut. Vi trenger ikke lenger gjøre algebra siden vi bare kan følge mønsteret og anta at dette vil fortsette å skje for hver periode. Etter dette vil vi sammenligne denne uendelige summen med Maclaurin-serien vår for \ sin x.

\ sin x = x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \ dfrac {1} {(4 \ pi) ^ 2} – \ enspace … \ enspace \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}

\ sin x = \ dfrac {x} {1 !} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} + \ dfrac {x ^ 9} {9!} – \ dfrac {x ^ {11}} {11!} + … \ tag * {}

Ved koeffisient sammenligning ser vi at

– \ dfrac {x ^ 3} {3!} = \ Left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, … \ høyre) x ^ 3 \ tag * {}

Fjern x ^ 3 fra begge sider.

– \ dfrac {1} {3 !} = – \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, .. . \ tag * {}

Multipliser begge sider med -1:

\ dfrac {1} {3!} = \ dfrac {1} {\ pi ^ 2} + \ dfrac {1} {(2 \ pi) ^ 2} + \ dfrac {1} {(3 \ pi) ^ 2} + \ dfrac {1} {(4 \ pi) ^ 2} + \ dfrac {1} { (5 \ pi) ^ 2} + … \ tag * {}

Multipliser med \ pi ^ 2

\ dfrac {\ pi ^ 2} {3!} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} { 5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}

Evaluer 3! og der er det:

\ dfrac {\ pi ^ 2} {6} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1 } {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}

Eulers virkelige identitet.

Sitater:

Professoren min: Tan Nguyen

Svar

Å mann, du bortskjemte det helt! Slik stiller du ikke spørsmålet, kom !

Du stiller det slik: Hva er

\ displaystyle \ lim\_ {n \ to \ infty} e ^ {- n} \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} \, \, \ text {?}

Og så lene deg deg tilbake og nyter skuespillet til alle som sier at det er åpenbart 1, og de forklarer hvorfor, og det er så klart at det ikke du trenger ikke engang bevis, men du ber dem bevise det uansett, og de prøver, og de mislykkes (eller verre: lykkes), og du spør dem om de fremdeles tror det er 1, og de sier ja, men noe av tilliten er borte, og du spiller dem så lenge det vil til du informerer dem om at de er nøyaktig 100\% i rabatt.

Så hvorfor tror alle at denne grensen tilsvarer 1, og hvorfor er det ikke sant, og hvorfor er det faktisk \ frac {1} {2}?

Vel, for n veldig stort handler summen \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} om e ^ n. Ikke sant? Det er bare Taylor-serien til den eksponensielle funksjonen. Så da multipliserer vi det med e ^ {- n} og får omtrent 1, og når vi lar n vokse blir dette bare mer og mer nøyaktig, så grensen må være ganske enkelt 1. Jeg mener det har til.

Ikke sant?

Feil.

Så hva er galt her? Du kan føle deg litt ukomfortabel med den Taylor-virksomheten. Jeg mener sikkert, summen

\ displaystyle \ sum\_ {k = 0} ^ n \ frac {x ^ k} {k!}

Er en delsum av Taylor serie av e ^ x, så grensen for fast x som n \ til \ infty er faktisk e ^ x. Men her gjør vi noe litt mistenkelig: vi ber n om å utføre dobbelt arbeid som både summeringsområdet og variabelen til kraftserien.

En ting, i alle fall, bør være klar: uttalelsen

\ displaystyle e ^ n =? = \ lim\_ {n \ to \ infty} \ sum\_ {k = 0} ^ {n} \ frac {n ^ k} {k!}

gir ingen mening i det hele tatt. Variabelen n er ledig på venstre side og bundet til høyre.

Ok. Så den naive tolkningen er ute av vinduet. Hvordan gjør vi vi vurderer den grensen?

Det er en vakker, mesterlig måte å løse dette på som nesten er lett å håndtere. Det går slik: dette er nettopp den begrensende sannsynligheten for at en tilfeldig Poisson-variabel med parameteren \ lambda = n er mindre enn forventet. En slik variabel er distribuert akkurat som summen av n uavhengige Poisson-variabler med parameteren \ lambda = 1, og en slik sum (normalisert av variansen \ sqrt {n}, som ikke betyr noe her) konvergerer i distribusjon til en normal fordeling. Hva er sannsynligheten for at en normal tilfeldig variabel er mindre enn gjennomsnittet? Hvorfor det er \ frac {1} {2}, selvfølgelig. Ferdig. QED.

Vent, hva?

Ja, egentlig. Hvis du vet om Central Limit Theorem, er dette nøyaktig hva det står hvis du tar tilfeldige variabler X\_1, X\_2, \ ldots som hver er Poisson (1). God rutinemessig øvelse i å bruke CLT på tilfeldige Poisson-variabler.

Men hva om du ikke vet om CLT eller det ikke bare falt deg inn å tolke denne grensen som en sannsynlighet?

Da er dette ærlig talt ganske vanskelig problem. CLT er en kraftig teorem som skjuler ganske mye teori, og tilbyr den praktisk talt gratis. Uten det er du alene her, og jeg vet ikke en veldig enkel måte å bevise dette på. Noen smarte integrerte manipulasjoner og transformasjoner er nødvendig.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *