Hvad kunne jeg gøre med 1 TB RAM?

Bedste svar

Den første ting at vide er, at computere med så meget RAM er langsommere, end du tror. At administrere, at mange rambanker kræver teknologi, der gør RAM-adgang langsommere (NUMA, ECC, adressering til anden side af stick kræver en stop-handling …). Tænk på dem som en stor lastbil, mens din bærbare computer er en bil (måske en F1). Hvis du har brug for at købe dagligvarer, er bilen dit valg.

Den anden ting er, at disse computere er meget dyre. Ikke kun på grund af RAM-sticks, men alt skal skaleres. Server-bundkort, mange XEON-processorer, enorme ramsticks … alt dette såkaldte “professionelle” hardware kom med “serverafgift” dobbelt pris for hver 10\% stigning i ydeevne. Du kan få meget mere computerkraft ved at købe flere hardware til rimelig størrelse.

Det meste af tiden skal en computer være afbalanceret. Hvis du har så meget RAM, har du brug for mange kerner til at arbejde med det og virkelig hurtig matrix af SSD til at indlæse og gemme data. Nogle anvendelser er ikke afbalancerede og kræver mere af en ressource.

For en almindelig hjemmebruger er der ikke brug for så meget ram.

Så hvad bruger disse sådanne dyr? De er nyttige, når du skal arbejde på mange data på én gang. Selvom deres RAM er langsommere end RAM på en almindelig computer, er det stadig gange hurtigere end den hurtigste SSD.

Så almindelige anvendelser inkluderer:

  • stor i relationel hukommelsesdatabase
  • stor nøgleværdilager (ingen sql)
  • store gravedatabase
  • nogle videnskabelige job: DNA-undersøgelse, simulering
  • enorm PLM-konfiguration servere i bil- og luftrumsindustrien
  • kører VM (dette er en dum brug, men alligevel en af ​​de mest almindelige)

Selv i den professionelle verden er gode it-teams har tendens til at sprede opgaverne på flere computere ved hjælp af algoritmer som kortreduktion, gengive gårde til 3D-gengivelse… Hvis det er muligt, er det langt mere effektivt, mere fleksibelt og lettere at håndtere fiasko. Du kan slukke for computere eller tilføje noget mere til skalering med belastningen.

De fleste af disse computere købes også af admin-systemet af en af ​​disse dumme grunde:

  • De ønsker ikke at tage noget ansvar, så de køber den største tilgængelige computer, og hvis softwaren mislykkes, kan de sige, at det ikke er deres skyld, fordi de gjorde det maksimale.
  • De er nørder, og de vil have større legetøj end deres venner. Hvis dit arbejde betaler dig den bil, du ønsker, ville du få en Prius eller en Bugatti?
  • Købsprocessen er meget langsom i deres firma og involverer mange handlinger, der koster endnu mere i menneskelige ressourcer end hardware sig selv. Da de fik serveren, blev det comorbiditetshardware (lidt overdrivelse der).
  • Hvis din chef ved, at it kører på $ 500 ud af hyldecomputerne, ser de på dig som en blikkenslager, er det sværere at retfærdiggøre din løn, end hvis du administrerer millioner af infrastruktur og ligner en atomkraftværkschef.

Ja, alle disse er dumme, men meget almindelige. Det er mit daglige job at omarkitekturinfrastrukturer og optimere omkostninger.

En lille historie at afslutte: Efter 3 års tjeneste optrådte der et problem i en messaging-tjeneste (Kafka). Nogle meddelelser blev gemt flere gange, og det får den næste software i kæden til at fejle (det skulle have håndteret det). Efter undersøgelse fandt jeg i dokumentationen, at det var normal opførsel af messaging-systemet under belastning. Det garanterer, at meddelelser ankommer mindst en gang, men der kan være dobbeltbeskeder. Jeg sagde “systemet er overbelastet” IT-teamet lo af mig “vi når ikke engang 10\% på vores 3 noder x 48 kerner, 1 TB ram-klynge, du er dum” … Jeg fortsatte med min holdning og bad om adgang på tjenesten for at finde problemet. At kende mine tidligere handlinger og frygter, at jeg afslører en fejltagelse, kontrollerede de alt igen. Det så ud til, at i 10-linjers konfigurationsfilen til Kafka var der skrevet “number\_of\_thread = 4”. Ja, de kørte en service på $ 150k klynge og bruger kun 4 kerner på hver node, det er derfor, det aldrig får over 10\% CPU-brug. Ingen af ​​de 20 involverede personer så det. Det fungerede sådan i 3 år, selv en $ 1000 bærbar computer ville have gjort jobbet. De gør den samme slags ting på alle applikationer, jeg så i dette firma. Alligevel har de mere end 150.000 ansatte og kører 3 enorme datacentre. Mange virksomheder gør det samme, jeg kan fortælle dig masser af historier som denne …

Svar

Hvis din computer havde 1 TB RAM, hvad ville du gøre med det?

Tak for A2A. Ærligt talt … sælg det.

Seriøst er de penge, jeg ville få fra 1 TB RAM, mere end værd at tabe ved at have så meget ustabil hukommelse.

Her er sagen. Hvis noget går galt med din computer, er der ingen måde , at du kan dumpe 1 TB RAM på permanent lager i den tid, det tager for et system at kollapse. / p>

RAM er noget af en “Goldilocks” -teknologi.Alt, hvad der er så stort, der kræver så meget RAM, vil aldrig kunne gemmes i tide. Selv ond-hurtig Persistent Memory (PM) teknologier som Z-NAND eller 3DXPoint kan simpelthen ikke holde trit med det krævede enorme datahastighed.

[Rediger – næsten et år senere]

Okay, så dette svar har fået nogle kommentarer, og det ser ud til, at der skal være nogle yderligere afklaringer. Jeg vil samle nogle af mine svar på kommentarerne for at gøre dette mere flydende.

Computere er designet til at gemme data, ikke miste det. RAM er flygtigt og placerer således disse data i stor risiko.

Nogle data er “hjælper” -data. Sig for eksempel processer, der kører i dit system, der har meget korte holdbarheder (som de processer, der opdaterer metadataene på dit filsystem). De lever i RAM, fordi deres nytte er ekstremt kortvarig. De kræver heller ikke et -parti RAM.

Et andet eksempel på “hjælper” -data er den slags data, der bruges til at gengive lyd og video af høj kvalitet, gør fotograferingsarbejde, indlæser kort og teksturer i videospil osv. Disse data bruger meget RAM (ikke så meget som 1 TB, men det er stadig mere end dit gennemsnitlige Microsoft Word-dokument), men at miste disse data er ikke så risikabelt.

(Du spiller nogensinde et videospil og ser meddelelsen om ikke at slukke for din maskine, når du se symbolet “gem spil”? Ja, det er her, din maskine skriver dine data fra RAM til disk. Skrivning af data fra RAM til disk er også en af ​​de mest risikable dele af at flytte data rundt. Det er, hvordan gemte filer ofte bliver ødelagt .)

At have 1 TB RAM – til de omkostninger, der er involveret, da jeg skrev dette svar – er kun nyttigt i meget få udvalgte arbejdsbelastninger. Generelt er disse arbejdsbelastninger alvorlige antal-knusende opgaver, der ellers ville kræve enorme mængder I / O.

Beregningsarbejdsbelastninger i hukommelsen gør kræver enorme mængder RAM. 1TB er faktisk ikke nok. De holder hele databaser i RAM for at udføre onde hurtige beregninger. Denne type data er dog ikke “hjælper” -data, og det er heller ikke data, der let kan rekonstrueres eller genindlæses (som du ville gøre med blot at gengive dit videoprojekt).

De fleste mennesker – inklusive mig selv – kører ikke databaser i hukommelsen eller har brug for at holde hele datasæt i hukommelsen til behandling.

Så hvis du har et program der gemmer data ofte (I / O-overførsel til disk), så har du ikke brug for en stor RAM-størrelse. Sig, Microsoft Word i dette eksempel vil gemme dine data tilbage på disken regelmæssigt, så de margen for fejl er lille (hvis RAM mislykkes mellem gemmer, er mængden af ​​data / arbejde, der er udført siden den sidste I / O-overførsel er tabt, og det holdes på et minimum). Det ændrer sig ikke med mere RAM, du har.

De fleste applikationer og arbejdsbelastninger siger ikke til operativsystemet: “Giv mig al den RAM, du har.” Så hvad du har er et stort antal applikationer, der opretter arbejdsbelastninger med 1 TB RAM. Sikker på, det er hurtigt, og det ville være rart at kunne gøre det, men er det værd at koste det? Til mig? Nej.

De fleste af de data, som gennemsnitsforbrugeren arbejder på, kræver ikke, at så store mængder kapacitet opbevares i flygtig hukommelse.

Nu, med 1 TB RAM, har nogle mennesker foreslåede RAM-diske. Desværre er det nøjagtigt den brugssag, som jeg henviser til, at 1TB RAM er mindst passer praktisk.

Hvis du ikke er fortrolig med, hvad en RAM-disk er, er det en speciel brugssag, hvor operativsystemet behandler en bestemt mængde hukommelse som en meget, meget hurtig harddisk disk. Problemet er, at alt , der er gemt på den RAM-disk, er – du gættede det – flygtigt. Brug af en RAM-disk som et hovedarbejdsområde til din computer er ofte for fristende for mange mennesker, og de er chokerede over at finde ud af, at en masse data, som de troede var sikre og sikker var det aldrig.

Enhver, der bruger en RAM-disk til missionskritisk datalagring, beder om problemer. Hver gang du udfører noget arbejde på en RAM-disk og “gemmer” filen , gemmes den ikke permanent . Du skal stadig skrive alle disse data tilbage til en permanent permanent lagerenhed. Hvis vi antager, at 1 TB data er meget længere, end folk er klar over.

(Bemærk: RAM-diske kan automatiseres til at gemmes på en permanent lagerenhed, ligesom dit Microsoft Word-dokument gør, men 1 TB tager stadig meget , meget lang tid til at flytte til disk i en nødsituation.)

VMer er nyttige til særlig omtale her, og jeg er taknemmelig over for Thomas Zoltan for at bringe den op. Virtuelle maskiner klarer sig meget, meget godt med meget RAM, og værts-OS skal være i stand til at levere det – især hvis du planlægger at være vært for flere virtuelle computere på den samme maskine.

(NB: Jeg misforstod oprindeligt Thomas oprindelige pointe, var at VMerne ville bruge RAMen, ikke lagres på en RAM-disk . Han diskuterede begge brugssager, og jeg havde samlet dem to. Jeg tror, ​​jeg forstår nu, hvad han dog prøvede at sige.)

Selvfølgelig bruger jeg sådanne virtuelle maskiner i mit testlaboratorium, tiden. Mine testmaskiner har 128 GB RAM for at være i stand til at håndtere hurtig spin-up og spin-down af VMer, og TBH kunne de helt sikkert bruge lidt mere åndedrætsrum, især da VMwares software ikke er så mager og ond som den plejede at være.

De fleste mennesker bruger dog ikke (selv inkluderet) VSAN- eller vSphere-miljøer i deres hjem. Jeg har det i mit hjem lab , men der er ikke noget på de maskiner, der endda fjernt kan betragtes som missionskritiske.

Og i sidste ende, jeg tror det er her misforståelsen ligger i nogle af kommentarerne til dette svar. Nogle hvordan folk fik tænkt på, at jeg sagde, at der slet ikke var brug for så meget hukommelse overhovedet . Jeg finder det forvirrende, for hvad jeg sagde var:

[De] penge, som jeg ville få fra 1 TB RAM, er mere end værd at tabe har så meget ustabil hukommelse.

Og det er sandt. At have ægte, tilgængelig 1 TB RAM ( ingen af mine computere kan endda bruge så meget RAM! Som i har de ikke evnen til at brug det) er et meget dyrt forslag, og de penge, jeg ville få for det er mere værd end at have det lige nu .

Om 4 eller 5 år? Hvem ved det. Vi ser sandsynligvis tilbage på dette svar (som vi gør med alle computerrelaterede svar, der beskæftiger sig med hastigheder og feeds) og tænker, ”Hvor malerisk! Kan du huske, da 1 TB var uoverkommelig ? ” 🙂

Forresten …

Årsagen til, at konceptet kom ind i diskussionen, er at jeg havde en kunde, der lavede en stor mængde in-memory-behandling (1 TB faktisk) , der havde brug for at være i stand til at droppe alle de lagrede beregninger til disken på 8 sekunder. Problemet var (og er stadig), at mens arbejdsbyrden beregner resultater i en fænomenal hastighed, var der ingen måde at gemme dataene til permanent lagring i den tid, som systemet ville lukke ned på grund af en nødsituation (brandalarm, failover, advarsler om systemgrænser osv.).

Så spørgsmålet bliver, hvor meget RAM der er “det værd?” Hvad er værdien af ​​en “lille” hurtigere pr. $ / £ / E? Det er det for hver person at beslutte. For mig er denne grænseværdi endnu ikke blevet krydset.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *