Bästa svaret
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + … = \ dfrac {\ pi ^ 2} {6} \ tagg {1}
Det finns ett utmärkt bevis för detta, och detta bevis är faktiskt hur Euler först bevisade denna identitet. Naturligtvis måste jag tacka min professor för att ha visat denna identitet för mig. (Alla Quora-konton är listade på fliken ”Citeringar” i slutet av detta svar. Slutligen är den enda beräkning som krävs för att förstå detta bevis kraftregeln, som du fortfarande kan klara dig utan att veta.
\ dfrac {\ mathrm d} {\ mathrm dx} [x ^ n] = nx ^ {n-1} \ tag * {}
Vi börjar med en liten historia av matematik. Eulers verkliga identitet är inte e ^ {i \ pi} + 1 = 0. Faktum är att en matematiker som heter Roger Cotes skrev om detta årtionden före Euler, men Euler var mer känd så att han fick den upptäckten. Identiteten som visade sig vara Eulers anspråk på berömmelse var faktiskt
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} … = \ dfrac {\ pi ^ 2} {6} \ tag * {}
* Som ett roligt faktum finns det en lag, som heter Stiglers lag, som säger att ingen vetenskaplig upptäckt är uppkallad efter sin ursprungliga upptäckare. Naturligtvis för konsekvens föreslogs denna lag först av Robert Merton. Exempel på denna lag är Eulers identitet, upptäckt av Roger Cotes, Hubbles lag, härledd från George Lemaitre och Pythagoreas teorem upptäckt av babyloniska matematiker mycket före Pythagoras. Hur som helst, tillbaka till svaret.
Detta problem fanns mycket före Euler men löstes inte förrän honom. Matematiker vid den tiden som Jacob Bernoulli, Johan Bernoulli, Leibniz och John Wallis hade arbetat med problemet mycket innan Euler men kunde inte komma med ett exakt värde för problemet i fråga. Faktum är att detta problem började bli så stort att det fick sitt eget namn: Basel-problemet.
För att bevisa Eulers summa konvergerar i första hand, måste vi skriva om det från detta
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} … \ tag {1}
till detta.
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
Dessa är uppenbarligen samma saker men uttrycks bara annorlunda. Jag visar varför (2) är mer användbart än (1) här på en sekund.
Ta (2) och ändra det sedan. Eftersom det är mycket svårt att uttrycka med ord måste jag bara visa dig det:
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
\ innebär
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Så vi har ändrat värdet på den oändliga summan, oroa dig inte, jag försöker inte glida saker förbi dig. Låt oss analysera (3).
Denna nya serie verkar vara större än (2). Den första termen i både (2) och (3) är uppenbarligen lika med varandra. Den andra termen i (3) är verkligen större än (2) och vi ser att denna process fortsätter till oändlighet. Det betyder att om den här serien (3) konvergerar, så gör den andra (2) också.
Så den här delen kanske inte är uppenbar för de flesta, vilket är bra; det var inte uppenbart för mig först heller.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Vi stänger av serien efter de första fyra termerna och hittar den partiella summan.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 \ tag * {}
För de som inte vet kan den här serien skrivas om som:
\ dfrac {1} {1} + \ left (\ dfrac 1 1- \ dfrac 1 2 \ right) + \ vänster (\ dfrac 1 2 – \ dfrac 1 3 \ höger) + \ vänster (\ dfrac 1 3- \ dfrac 1 4 \ höger) \ tag * {}
Edit:
Jag fick en fråga som frågade hur vi kan komma till den nya serien, och detta var mitt svar:
* Om du vet hur man komma till det steget, då kan du hoppa över det här nästa citerade avsnittet.
Ja, du kan komma till det steget genom partiell fraktionsexpansion. Serien i sin nuvarande form är den här:
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ dfrac {1} {n (n + 1)} \ tag * { }
Du kan anta att insidan av summan kan representeras av en funktion av reella tal, eller en funktion av x, utökad till två nya fraktioner,
\ dfrac {1 } {x (x + 1)} = \ dfrac {A} {x} + \ dfrac {B} {x + 1} \ tag * {}
Multiplicera genom en gemensam nämnare,
1 = A (x + 1) + B (x) \ tag * {}
Eftersom x \ i \ mathbb R, låter vi x = 0 och hittar A = 1 .Att låta x = -1 ger oss B = -1 så att vi kan skriva om argumentet för summan som
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ left (\ dfrac {1} {n} – \ dfrac {1} {n + 1} \ right) \ tag * {}
Tillägget är associerande, så skriv om den här partiella summan:
\ vänster (\ dfrac 1 1+ \ dfrac 1 1 \ höger) + \ vänster (- \ dfrac 1 2+ \ dfrac 1 2 \ höger) + \ vänster (- \ dfrac 1 3+ \ dfrac 1 3 \ höger ) – \ dfrac 1 4 \ tag * {}
Som sedan blir trivialt.
2- \ dfrac 1 4 \ tag * {}
Vi Nu går vi tillbaka till vår oändliga serie (3) och ersätter de första 4 termerna med 2- \ frac 1 4 och se vad som händer därifrån.
2- \ dfrac 1 4+ \ dfrac 1 4 \ cdot \ dfrac 1 5+ \ dfrac 1 5 \ cdot \ dfrac 1 6+ \ dfrac 1 6 \ cdot \ dfrac 1 7 … \ tag * {}
Med det trick vi använde tidigare,
2- \ dfrac 1 4+ \ dfrac 1 4- \ dfrac 1 5+ \ dfrac 1 5- \ dfrac 1 6+ \ dfrac 1 6- \ dfrac 1 7 … \ tag * {}
Och nu blir värdet för denna oändliga summa uppenbart.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … = 2 \ tag * {}
Bra! Så vi vet nu att summan i fråga konvergerar till ett värde mindre än 2. För de nyfikna, \ frac {\ pi ^ 2} {6} \ ca 1.644.
Vi kan nu börja bevisa Eulers verkliga identitet:
Antag att \ sin x kan uttryckas som något oändligt polynom.
\ sin x = a + bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Vi kan nu hitta alla termer för polynom trivialt. Börja med att låta x = 0
\ sin 0 = a + b0 + c0 ^ 2 + d0 ^ 3 … \ tag * {}
0 = a \ tag * { }
Så vårt nya oändliga polynom blir då
\ sin x = bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Differentiera båda sidor
\ cos x = b + 2cx + 3dx ^ 2 … \ tag * {}
Inställning x = 0,
1 = b \ tag * {}
Att differentiera och ställa in x = 0 ger oss ett oändligt polynom för \ sin x. Om du fortsatte att göra detta för alltid kommer du så småningom att dra slutsatsen att
\ sin x = 0 + 1x- \ dfrac {1} {2 \ cdot 3} x ^ 3 + … \ tag * {}
Vilket förenklar till
\ sin x = \ dfrac {x} {1!} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} … \ tag * {}
Så vi har just återställt Maclaurin-serien för \ sin x. Jag ber om ursäkt, men jag kände behovet av att ta med bevis för det eftersom vi redan bevisar andra saker ändå.
Även om detta verkligen är en livskraftig expansion för \ sin x, tog Euler en annan inställning. Ta en titt på diagrammet för \ sin x, \, x \ i [- \ pi, \ pi]. Vi vet att det finns nollor vid x = – \ pi, \, 0, \, \ pi, så om vi skulle modellera den här grafen kan vi skriva en kubisk funktion med nollor vid – \ pi, \, 0, \, \ pi.
f (x) = x (\ pi + x) (\ pi-x) \ tag * {}
Vilket ser ut så här:
Detta ser naturligtvis inte ut som f (x) = \ sin x alls, men vi kan skala det genom att multiplicera funktion av någon konstant. Efter mycket fiddling ser vi att den konstant som gör att grafen passar bäst \ sin x är \ frac {1} {\ pi ^ 2}. Låt oss se vår nya graf för
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi-x) \ tag * {}
Vilket är, även om det inte är exakt, mycket bättre. Låt oss manipulera vår funktion här så får du se varför detta händer senare.
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi -x) \ tag * {}
f (x) = \ dfrac {1} {\ pi} (\ pi + x) \ cdot \ dfrac {1} {\ pi} (\ pi- x) x \ tag * {}
f (x) = x \ left (1+ \ dfrac {x} {\ pi} \ right) \ left (1- \ dfrac {x} {\ pi} \ höger) \ tag * {}
f (x) = x \ vänster (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ höger) \ tag * {}
Men vi har inte approximerat hela funktionen. För att göra det måste vi bestämma nya termer som lägger till nya nollor vid x = 2 \ pi, \, – 2 \ pi. Jag visar inte algebra igen och du kan verifiera den om du vill, men vår nya funktion blir:
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ höger) \ tag * {}
Och efter detta mönster för att lägga till nya villkor för att ta emot våra nya nollor, vår nya funktion modellerar perfekt den för \ sin x.
f (x) = \ sin x = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ höger) … \ tag {4}
Och här är diagrammen, sida vid sida.
* Även om de inte är exakta, är detta grafen skriven till 7 termer . Jag ber om ursäkt att jag inte kunde gå ut till oändligheten, men jag hade inte hela natten. Detta räcker dock, eftersom dess syfte var att visa likheterna mellan denna graf och \ sin x.
Vi kommer dit, så förbered er! Om du vill kan du klicka bort från det här svaret och se om du kan gå resten av vägen härifrån. Lycka till om du gör det!
Vi kommer att utsättas för ren tortyr, så multiplicera (4). Jag hoppar över algebra eftersom vi inte är här för att bli galna.
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right ) \ vänster (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ höger) … \ tag {4}
f (x) = \ left (x- \ dfrac {x ^ 3} {\ pi ^ 2} \ höger) \ vänster (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ höger) … \ tag * {}
f (x) = \ left (x + \ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3 + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ höger) \ vänster (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ höger) …\ tag * {}
Vi fokuserar enbart på koefficienten för x ^ 3-termen härifrån, så låt oss boxa den.
f (x) = \ left (x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3} + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ höger) \ vänster (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} … \ höger) \ tag * {}
Okej, låt oss nu multiplicera nästa term med den första. Återigen kommer jag skona dig från algebrabitarna.
x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} \ höger) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
Så härifrån är det ganska tydligt hur koefficienten på x ^ 3 kommer att se ut. Vi behöver inte längre göra någon algebra eftersom vi bara kan följa mönstret och anta att detta kommer att fortsätta att hända för varje termin. Efter detta jämför vi den oändliga summan med vår Maclaurin-serie för \ sin x.
\ sin x = x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \ dfrac {1} {(4 \ pi) ^ 2} – \ enspace … \ enspace \ höger) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
\ sin x = \ dfrac {x} {1 !} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} + \ dfrac {x ^ 9} {9!} – \ dfrac {x ^ {11}} {11!} + … \ tag * {}
Genom koefficientjämförelse ser vi att
– \ dfrac {x ^ 3} {3!} = \ Left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, … \ höger) x ^ 3 \ tag * {}
Ta bort x ^ 3 från båda sidor.
– \ dfrac {1} {3 !} = – \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, .. . \ tag * {}
Multiplicera båda sidor med -1:
\ dfrac {1} {3!} = \ dfrac {1} {\ pi ^ 2} + \ dfrac {1} {(2 \ pi) ^ 2} + \ dfrac {1} {(3 \ pi) ^ 2} + \ dfrac {1} {(4 \ pi) ^ 2} + \ dfrac {1} { (5 \ pi) ^ 2} + … \ tag * {}
Multiplicera med \ pi ^ 2
\ dfrac {\ pi ^ 2} {3!} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} { 5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Utvärdera 3! och där är det:
\ dfrac {\ pi ^ 2} {6} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1 } {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Eulers verkliga identitet.
Citat:
Min professor: Tan Nguyen
Svar
Åh man, du förstörde det helt! Så här ställer du frågan, kom till !
Du ställer den så här: Vad är
\ displaystyle \ lim\_ {n \ to \ infty} e ^ {- n} \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} \, \, \ text {?}
Och sedan luta dig tillbaka och njuta av alla som säger att det är uppenbarligen 1, och de förklarar varför, och det är så tydligt att det inte du behöver inte ens bevis men du ber dem att bevisa det ändå, och de försöker, och de misslyckas (eller värre: lyckas), och du frågar dem om de fortfarande tycker att det är 1, och de säger ja men en del av förtroendet är borta, och du spelar dem så länge det gläder dig tills du informerar dem om att de är exakt 100\% rabatt.
Så varför tror alla att denna gräns är lika med 1, och varför är det inte sant, och varför är det faktiskt \ frac {1} {2}?
Tja, för n mycket stort handlar summan \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} om e ^ n. Rätt? Det är bara Taylor-serien för den exponentiella funktionen. Så då multiplicerar vi det med e ^ {- n} och får ungefär 1, och när vi låter n växa blir detta bara mer och mer exakt, så gränsen måste vara helt enkelt 1. Jag menar det har att.
Rätt?
Fel.
Så vad är det här? Du kanske känner dig lite obekväm med den Taylor-affären. Jag menar säkert att summan
\ displaystyle \ sum\_ {k = 0} ^ n \ frac {x ^ k} {k!}
Är en partiell summa av Taylor serie av e ^ x, så dess gräns för fast x som n \ till \ infty är verkligen e ^ x. Men här gör vi något lite misstänksamt: vi ber n att utföra dubbla funktioner som både summeringsområdet och variabelen för kraftserien.
En sak, i alla fall, bör vara tydlig: uttalandet
\ displaystyle e ^ n =? = \ lim\_ {n \ to \ infty} \ sum\_ {k = 0} ^ {n} \ frac {n ^ k} {k!}
är ingen mening alls. Variabeln n är fri på vänster sida och bunden till höger.
Ok. Så den naiva tolkningen är ute genom fönstret. Hur utvärderar vi den gränsen?
Det finns ett vackert, mästerligt sätt att lösa detta som är nära till hands. Det går så här: detta är just den begränsande sannolikheten för en slumpmässig Poisson-variabel med parametern \ lambda = n att vara mindre än förväntat. En sådan variabel distribueras precis som summan av n oberoende Poisson-variabler med parameter \ lambda = 1, och en sådan summa (normaliserad av dess varians, \ sqrt {n}, som inte spelar någon roll här) konvergerar i distribution till en normal distribution. Vad är sannolikheten för att en normal slumpmässig variabel är mindre än dess medelvärde? Varför det är \ frac {1} {2}, förstås. Gjort. QED.
Vänta, vad?
Ja, verkligen. Om du känner till Central Limit Theorem är det precis vad det står om du tar slumpmässiga variabler X\_1, X\_2, \ ldots som var och en är Poisson (1). Bra rutinmässig övning för att tillämpa CLT på slumpmässiga Poisson-variabler.
Men vad händer om du inte vet om CLT eller om det bara inte tänkte dig att tolka denna gräns som en sannolikhet?
Då är det ärligt talat ganska svårt problem. CLT är en kraftfull teorem som döljer en hel del teori och erbjuder den praktiskt taget gratis. Utan det är du ensam här, och jag vet inte ett riktigt enkelt sätt att bevisa detta. Några smarta integrerade manipulationer och omvandlingar behövs.