Migliore risposta
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + … = \ dfrac {\ pi ^ 2} {6} \ tag {1}
Cè una prova eccellente per questo, e questa prova è in realtà come Eulero ha dimostrato per la prima volta questa identità. Ovviamente devo dare credito al mio professore per avermi mostrato questa identità. (Tutti gli account Quora sono elencati nella scheda “Citazioni” alla fine di questa risposta) Infine, lunico calcolo richiesto per comprendere questa prova è la regola del potere, che puoi ancora ottenere senza saperlo.
\ dfrac {\ mathrm d} {\ mathrm dx} [x ^ n] = nx ^ {n-1} \ tag * {}
Iniziamo con un po di storia della matematica. La vera identità di Eulero è non e ^ {i \ pi} + 1 = 0. In effetti, un matematico di nome Roger Cotes scrisse di questi decenni prima di Eulero, ma Eulero era più famoso, quindi gli fu attribuita la sua scoperta. Lidentità che si rivelò essere la pretesa di fama di Eulero era in realtà
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} … = \ dfrac {\ pi ^ 2} {6} \ tag * {}
* Curiosamente, esiste una legge, chiamata Legge di Stigler, che afferma che nessuna scoperta scientifica prende il nome dal suo scopritore originale. Ovviamente per coerenza, questa legge è stata proposta per la prima volta da Robert Merton. Esempi di questa legge includono lidentità di Eulero, scoperta da Roger Cotes, la legge di Hubble, derivata da George Lemaitre e il teorema di Pitagora scoperto dai matematici babilonesi molto prima di Pitagora. Comunque, torniamo alla risposta.
Questo problema esisteva molto prima di Eulero ma non è stato risolto fino a lui. Matematici dellepoca come Jacob Bernoulli, Johan Bernoulli, Leibniz e John Wallis avevano lavorato sul problema molto prima di Eulero, ma non erano riusciti a trovare un valore esatto per il problema in questione. In effetti, questo problema ha iniziato a diventare così grande che ha preso il suo nome: il problema di Basilea.
Per provare la somma di Eulero converge in primo luogo, dobbiamo riscriverla da questo
\ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} … \ tag {1}
a questo.
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
Queste sono ovviamente le stesse cose ma espresse in modo diverso. Ti mostrerò perché (2) è più utile di (1) qui in un secondo.
Prendi (2) e poi cambialo. Dato che è molto difficile esprimersi a parole, non mi resta che mostrartelo:
\ dfrac {1} {1} \ cdot \ dfrac {1} {1} + \ dfrac 1 2 \ cdot \ dfrac 1 2+ \ dfrac 1 3 \ cdot \ dfrac 1 3+ \ dfrac 1 4 \ cdot \ dfrac 1 4 … \ tag {2}
\ implica
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Quindi abbiamo cambiato il valore della somma infinita, non ti preoccupare, non sto cercando di farti passare le cose. Analizziamo (3).
Questa nuova serie sembra essere maggiore di (2). Il primo termine in entrambi (2) e (3) sono ovviamente uguali tra loro. Il secondo termine in (3) è certamente maggiore di (2) e vediamo che questo processo continua allinfinito. Ciò significa che se questa serie (3) converge, lo fa anche laltra (2).
Quindi questa parte potrebbe non essere ovvia alla maggior parte delle persone, il che va bene; allinizio non era ovvio neanche per me.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … \ tag {3}
Taglieremo la serie dopo i primi 4 termini e troveremo la somma parziale.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 \ tag * {}
Per coloro che non lo sanno, questa serie può essere riscritta come:
\ dfrac {1} {1} + \ left (\ dfrac 1 1- \ dfrac 1 2 \ right) + \ sinistra (\ dfrac 1 2 – \ dfrac 1 3 \ right) + \ left (\ dfrac 1 3- \ dfrac 1 4 \ right) \ tag * {}
Edit:
Ho ricevuto una domanda che chiedeva come possiamo arrivare alla nuova serie e questa è stata la mia risposta:
* Se sai come arrivare a quel passaggio, quindi puoi saltare la prossima sezione tra virgolette.
Sì, puoi arrivare a quel passaggio mediante espansione parziale della frazione. La serie nella sua forma attuale è questa:
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ dfrac {1} {n (n + 1)} \ tag * { }
Puoi presumere che linterno della somma possa essere rappresentato da una funzione di numeri reali, o una funzione di x, espansa in due nuove frazioni,
\ dfrac {1 } {x (x + 1)} = \ dfrac {A} {x} + \ dfrac {B} {x + 1} \ tag * {}
Moltiplicando per un denominatore comune,
1 = A (x + 1) + B (x) \ tag * {}
Poiché x \ in \ mathbb R, lasceremo x = 0 e troveremo A = 1 .Allo stesso modo, lasciando x = -1 ci dà B = -1, quindi possiamo riscrivere largomento della somma come
1+ \ displaystyle \ sum\_ {n = 1} ^ {+ \ infty} \ left (\ dfrac {1} {n} – \ dfrac {1} {n + 1} \ right) \ tag * {}
Laddizione è associativa, quindi riscrivi questa somma parziale:
\ sinistra (\ dfrac 1 1+ \ dfrac 1 1 \ destra) + \ sinistra (- \ dfrac 1 2+ \ dfrac 1 2 \ destra) + \ sinistra (- \ dfrac 1 3+ \ dfrac 1 3 \ destra ) – \ dfrac 1 4 \ tag * {}
Che poi diventa banale.
2- \ dfrac 1 4 \ tag * {}
Noi ” Ora torniamo alla nostra serie infinita (3) e sostituiamo i primi 4 termini con 2- \ frac 1 4 e vediamo cosa succede da lì.
2- \ dfrac 1 4+ \ dfrac 1 4 \ cdot \ dfrac 1 5+ \ dfrac 1 5 \ cdot \ dfrac 1 6+ \ dfrac 1 6 \ cdot \ dfrac 1 7 … \ tag * {}
Usando il trucco che abbiamo usato in precedenza,
2- \ dfrac 1 4+ \ dfrac 1 4- \ dfrac 1 5+ \ dfrac 1 5- \ dfrac 1 6+ \ dfrac 1 6- \ dfrac 1 7 … \ tag * {}
E ora il valore di questa somma infinita diventa evidente.
\ dfrac {1} {1} + \ dfrac 1 1 \ cdot \ dfrac 1 2+ \ dfrac 1 2 \ cdot \ dfrac 1 3+ \ dfrac 1 3 \ cdot \ dfrac 1 4 … = 2 \ tag * {}
Ottimo! Quindi ora sappiamo che la somma in questione converge a un valore inferiore a 2. Per i curiosi, \ frac {\ pi ^ 2} {6} \ approx 1.644.
Ora possiamo iniziare a dimostrare La vera identità di Eulero:
Supponi che \ sin x possa essere espresso come un polinomio infinito.
\ sin x = a + bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Adesso possiamo trovare banalmente tutti i termini del polinomio. Inizia lasciando x = 0
\ sin 0 = a + b0 + c0 ^ 2 + d0 ^ 3 … \ tag * {}
0 = a \ tag * { }
Quindi il nostro nuovo polinomio infinito diventa
\ sin x = bx + cx ^ 2 + dx ^ 3 + … \ tag * {}
Differenziare entrambi i lati
\ cos x = b + 2cx + 3dx ^ 2 … \ tag * {}
Impostazione x = 0,
1 = b \ tag * {}
Differenziando e impostando x = 0 si ottiene un polinomio infinito per \ sin x. Se continui a farlo per sempre, alla fine giungerai alla conclusione che
\ sin x = 0 + 1x- \ dfrac {1} {2 \ cdot 3} x ^ 3 + … \ tag * {}
Il che si semplifica in
\ sin x = \ dfrac {x} {1!} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} … \ tag * {}
Quindi abbiamo appena recuperato la serie Maclaurin per \ sin x. Mi scuso, ma ho sentito il bisogno di includerne la prova poiché stiamo già provando altre cose comunque.
Sebbene questa sia certamente unespansione praticabile per \ sin x, Eulero ha adottato un approccio diverso. Dai unocchiata al grafico di \ sin x, \, x \ in [- \ pi, \ pi]. Sappiamo che ci sono zeri in x = – \ pi, \, 0, \, \ pi, quindi se dovessimo modellare questo grafico allora possiamo scrivere una funzione cubica con zeri in – \ pi, \, 0, \, \ pi.
f (x) = x (\ pi + x) (\ pi-x) \ tag * {}
Che assomiglia a questo:
Ovviamente questo non assomiglia affatto a f (x) = \ sin x, ma possiamo ridimensionarlo moltiplicando il funzione da qualche costante. Dopo molte manovre, vediamo che la costante che rende il grafico più adatto a \ sin x è \ frac {1} {\ pi ^ 2}. Vediamo il nostro nuovo grafico di
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi-x) \ tag * {}
Che è, sebbene non esatto, molto meglio. Manipoliamo qui la nostra funzione e vedrai perché questo accade in seguito.
f (x) = \ dfrac {1} {\ pi ^ 2} x (\ pi + x) (\ pi -x) \ tag * {}
f (x) = \ dfrac {1} {\ pi} (\ pi + x) \ cdot \ dfrac {1} {\ pi} (\ pi- x) x \ tag * {}
f (x) = x \ left (1+ \ dfrac {x} {\ pi} \ right) \ left (1- \ dfrac {x} {\ pi} \ right) \ tag * {}
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ tag * {}
Ma non abbiamo approssimato lintera funzione. Per fare ciò, dovremo determinare nuovi termini che aggiungano nuovi zeri in x = 2 \ pi, \, – 2 \ pi. Non mostrerò più lalgebra e sei libero di verificarla se lo desideri, ma la nostra nuova funzione diventa:
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ tag * {}
E seguendo questo modello di aggiunta di nuovi termini per ricevere i nostri nuovi zeri, la nostra nuova funzione modella perfettamente quella di \ sin x.
f (x) = \ sin x = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ right) … \ tag {4}
E qui sono i grafici, uno accanto allaltro.
* Sebbene non siano esatti, questo è il grafico scritto in 7 termini . Mi scuso per non essere potuto uscire fino allinfinito, ma non ho avuto tutta la notte. Questo sarà sufficiente, tuttavia, poiché il suo scopo era mostrare le somiglianze tra questo grafico e \ sin x.
Ci stiamo arrivando, quindi preparati! Se lo desideri, fai clic fuori da questa risposta e vedi se puoi andare fino in fondo da qui. Buona fortuna se lo fai!
Ci sottoporremo a pura tortura, quindi moltiplica (4). Salterò lalgebra perché non siamo qui per impazzire.
f (x) = x \ left (1- \ dfrac {x ^ 2} {\ pi ^ 2} \ right ) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ right) \ sinistra (1- \ dfrac {x ^ 2} {(4 \ pi) ^ 2} \ right) … \ tag {4}
f (x) = \ left (x- \ dfrac {x ^ 3} {\ pi ^ 2} \ right) \ left (1- \ dfrac {x ^ 2} {(2 \ pi) ^ 2} \ right) … \ tag * {}
f (x) = \ left (x + \ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3 + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} \ destra) …\ tag * {}
Da qui ci concentreremo esclusivamente sul coefficiente del termine x ^ 3, quindi mettiamolo in un riquadro.
f (x) = \ left (x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} \ right) x ^ 3} + \ dfrac {1} {\ pi ^ 2} \ cdot \ dfrac {1} {(2 \ pi) ^ 2} x ^ 5 \ right) \ left (1- \ dfrac {x ^ 2} {(3 \ pi) ^ 2} … \ right) \ tag * {}
Ok, ora moltiplichiamo il termine successivo per il primo. Ancora una volta, ti risparmierò i bit di algebra.
x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
Quindi da qui, è abbastanza chiaro come sarà il coefficiente su x ^ 3. Non abbiamo più bisogno di fare alcuna algebra poiché possiamo semplicemente seguire lo schema e presumere che ciò continuerà ad accadere per ogni termine. Successivamente, confronteremo questa somma infinita con la nostra serie di Maclaurin per \ sin x.
\ sin x = x + \ boxed {\ left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \ dfrac {1} {(4 \ pi) ^ 2} – \ enspace … \ enspace \ right) x ^ 3} + (…) x ^ 5 + (…) x ^ 7 \ tag * {}
\ sin x = \ dfrac {x} {1 !} – \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ dfrac {x ^ 7} {7!} + \ dfrac {x ^ 9} {9!} – \ dfrac {x ^ {11}} {11!} + … \ tag * {}
Dal confronto dei coefficienti, vediamo che
– \ dfrac {x ^ 3} {3!} = \ Left (- \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, … \ right) x ^ 3 \ tag * {}
Rimuovi x ^ 3 da entrambi i lati.
– \ dfrac {1} {3 !} = – \ dfrac {1} {\ pi ^ 2} – \ dfrac {1} {(2 \ pi) ^ 2} – \ dfrac {1} {(3 \ pi) ^ 2} – \, .. . \ tag * {}
Moltiplica entrambi i lati per -1:
\ dfrac {1} {3!} = \ dfrac {1} {\ pi ^ 2} + \ dfrac {1} {(2 \ pi) ^ 2} + \ dfrac {1} {(3 \ pi) ^ 2} + \ dfrac {1} {(4 \ pi) ^ 2} + \ dfrac {1} { (5 \ pi) ^ 2} + … \ tag * {}
Moltiplicare per \ pi ^ 2
\ dfrac {\ pi ^ 2} {3!} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1} {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} { 5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Valuta 3! ed eccolo:
\ dfrac {\ pi ^ 2} {6} = \ dfrac {1} {1 ^ 2} + \ dfrac {1} {2 ^ 2} + \ dfrac {1 } {3 ^ 2} + \ dfrac {1} {4 ^ 2} + \ dfrac {1} {5 ^ 2} + \ dfrac {1} {6 ^ 2} … \ tag * {}
Identità reale di Eulero.
Citazioni:
Il mio professore: Tan Nguyen
Risposta
Oh amico, lhai completamente rovinato! Non è così che fai la domanda, vieni su !
Chiedi in questo modo: Cosè
\ displaystyle \ lim\_ {n \ to \ infty} e ^ {- n} \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} \, \, \ text {?}
E poi ti siedi e ti godi lo spettacolo di tutti che dicono che è ovviamente 1, e loro spiegano perché, ed è così chiaro che non lo fa ” Ho anche bisogno di una prova ma chiedi loro di dimostrarlo comunque, e loro ci provano, e falliscono (o peggio: hanno successo), e tu chiedi loro se pensano ancora che sia 1, e loro dicono di sì, ma parte della fiducia è andata, e li giochi per tutto il tempo che ti piace fino a quando non li informi che hanno esattamente il 100\% di sconto.
Allora, perché tutti pensano che questo limite sia uguale a 1, e perché non è vero, e perché è effettivamente \ frac {1} {2}?
Bene, per n molto grande, la somma \ sum\_ {k = 0} ^ n \ frac {n ^ k} {k!} è circa e ^ n. Destra? È solo la serie di Taylor della funzione esponenziale. Quindi lo moltiplichiamo per e ^ {- n} e otteniamo quasi 1, e quando lasciamo crescere n questo diventa sempre più preciso, quindi il limite deve essere semplicemente 1. Voglio dire deve a.
Giusto?
Sbagliato.
Allora cosa cè che non va qui? Beh, potresti sentirti un po a disagio per quella faccenda di Taylor. Voglio dire, certo, la somma
\ displaystyle \ sum\_ {k = 0} ^ n \ frac {x ^ k} {k!}
è una somma parziale del Taylor serie di e ^ x, quindi il suo limite per x fisso come n \ to \ infty è effettivamente e ^ x. Ma qui stiamo facendo qualcosa di un po sospetto: chiediamo a n di svolgere il doppio dovere sia come intervallo di somma che come variabile della serie di potenze.
Una cosa, in ogni caso, dovrebbe essere chiara: laffermazione
\ displaystyle e ^ n =? = \ lim\_ {n \ to \ infty} \ sum\_ {k = 0} ^ {n} \ frac {n ^ k} {k!}
non ha alcun senso. La variabile n è libera a sinistra e vincolata a destra.
Ok. Quindi questa interpretazione ingenua è fuori dalla finestra. In che modo valutiamo quel limite?
Cè un modo meraviglioso e magistrale per risolvere questo problema che è quasi un gioco di prestigio. Funziona così: questa è precisamente la probabilità limite che una variabile di Poisson casuale con parametro \ lambda = n sia inferiore alla sua aspettativa. Tale variabile è distribuita proprio come la somma di n variabili di Poisson indipendenti con parametro \ lambda = 1, e tale somma (normalizzata dalla sua varianza, \ sqrt {n}, che qui non ha importanza) converge in distribuzione a una normale distribuzione. Qual è la probabilità che una variabile casuale normale sia inferiore alla sua media? Perché è \ frac {1} {2}, ovviamente. Fatto. QED.
Aspetta, cosa?
Sì, davvero. Se conosci il teorema del limite centrale, questo è esattamente quello che dice se prendi le variabili casuali X\_1, X\_2, \ ldots ognuna delle quali è Poisson (1). Buon esercizio di routine per applicare il CLT a variabili di Poisson casuali.
Ma cosa succede se non conosci il CLT o semplicemente non ti è venuto in mente di interpretare questo limite come una probabilità?
Allora questo è, onestamente, abbastanza problema difficile. Il CLT è un potente teorema che nasconde un bel po di teoria, offrendola virtualmente gratuitamente. Senza di esso, sei da solo qui e non conosco un modo davvero semplice per dimostrarlo. Sono necessarie alcune manipolazioni e trasformazioni integrali intelligenti.