Bästa svaret
Det första du ska veta är att datorer med så mycket RAM är långsammare än du tror. Att hantera att många rambanker kräver teknik som gör RAM-åtkomst långsammare (NUMA, ECC, adressering av andra sidor av stick kräver en stoppåtgärd …). Tänk på dem som en stor lastbil medan din bärbara dator är en bil (kanske en F1). Om du behöver skaffa mat, kommer bilen att vara ditt val.
Det andra är att dessa datorer är mycket dyra. Inte bara på grund av RAM-pinnar, men allt måste skala. Serverns moderkort, många XEON-processorer, enorma RAM-pinnar … all denna så kallade ”professionella” hårdvara kom med ”serverskatten” dubbelt så mycket för varje 10\% högre prestanda. Du kan få mycket mer datorkraft genom att köpa flera hårdvaror med rimlig storlek.
Oftast måste en dator vara balanserad. Om du har så mycket RAM-minne behöver du många kärnor för att arbeta med det och en riktigt snabb SSD-matris för att ladda och spara data. Vissa användningar är inte balanserade och kräver mer av en resurs.
För en vanlig hemanvändare finns det ingen användning av så mycket ram.
Så vad använder det av sådana djur? De är användbara när du behöver arbeta med mycket data på en gång. Även om deras RAM-minne är långsammare än RAM-minnet på en vanlig dator, är det fortfarande snabbare än den snabbaste SSD-enheten.
Så vanliga användningsområden inkluderar:
- stor i relationsdatabasen
- stor nyckel-värde butik (ingen sql)
- stor diagram databas
- några vetenskapliga jobb: DNA-studie, simulering
- enorm PLM-konfiguration servrar inom fordons- och luftrumsindustrin
- som kör VM (detta är en dum användning, men ändå en av de vanligaste)
Även i den professionella världen, bra IT-team tenderar att sprida uppgifterna på fler datorer med hjälp av algoritmer som kartreducering, göra gårdar för 3D-rendering … Om möjligt är det mycket effektivare, mer flexibelt och lättare att hantera fel. Du kan stänga av datorer eller lägga till lite mer i skala med belastningen.
De flesta av dessa datorer köps också av administrationssystemet av en av dessa dumma skäl:
- De vill inte ta något ansvar, så de köper den största tillgängliga datorn och om programvaran misslyckas kan de säga att det inte är deras fel eftersom de gjorde maximalt.
- De är nördar och de vill ha större leksaker än deras vänner. Om ditt arbete betalar dig någon bil du vill, skulle du få en Prius eller en Bugatti?
- Köpprocessen är väldigt långsam i deras företag och innebär många åtgärder som kostar ännu mer personal än hårdvaran sig. När de har fått servern blev det hårdvara för comorbiditet (lite överdrift där).
- Om din chef vet att IT körs på $ 500 ur hylldatorn ser de på dig som rörmokare, det är svårare att rättfärdiga din lön än om du hanterar miljoner infrastruktur och ser ut som en kärnkraftsanläggningschef.
Ja, alla dessa är dumma men mycket vanliga. Det är mitt dagliga jobb att omorganisera infrastrukturer och optimera kostnaderna.
En liten historia att avsluta: Efter tre års tjänst uppstod ett problem med en meddelandetjänst (Kafka). Vissa meddelanden lagrades flera gånger och det gör att nästa programvara i kedjan misslyckas (den borde ha hanterat det). Efter utredning fann jag i dokumentationen att det var normalt beteende för meddelandesystemet under belastning. Det garanterar att meddelanden anländer minst en gång, men det kan finnas dubbla meddelanden. Jag sa ”systemet är överbelastat” IT-teamet skrattade åt mig ”vi når inte ens 10\% på våra 3 noder x 48 kärnor, 1 TB RAM-kluster, du är dum” … Jag fortsatte med min position och bad om åtkomst på tjänsten för att hitta problemet. Att veta mina tidigare handlingar och fruktar att jag avslöjar ett misstag kontrollerade de allt igen. Det verkade som att det i Kafka-konfigurationsfilen med tio rader stod ”number\_of\_thread = 4”. Ja, de körde en tjänst på $ 150 000 kluster och använder bara 4 kärnor på varje nod, det är därför det aldrig får över 10\% CPU-användning. Ingen av de 20 inblandade personerna såg det. Det fungerade så här i tre år, till och med en $ 1000-bärbar dator skulle ha gjort jobbet. De gör samma typ av saker på alla applikationer som jag såg i det här företaget. Ändå har de mer än 150 000 anställda och driver 3 enorma datacenter. Många företag gör detsamma, jag kan berätta massor av berättelser som detta …
Svar
Om din dator hade 1 TB RAM, vad skulle du göra med det?
Tack för A2A. Ärligt talat … sälj det.
På allvar är de pengar som jag skulle få från 1 TB RAM mer än värda att förlora att ha så mycket flyktigt minne.
Här är saken. Om något går fel på din dator finns det inget sätt att du kan dumpa 1 TB RAM till permanent lagring under den tid det tar för ett system att kollapsa.
RAM är något av en “Goldilocks” -teknologi.Allt som är så stort som kräver så mycket RAM skulle aldrig kunna sparas i tid. Till och med onda-snabba Persistent Memory (PM) -teknologier som Z-NAND eller 3DXPoint kan helt enkelt inte hålla jämna steg med den enorma datahastighet som krävs.
[Redigera – nästan ett år senare]
Okej, så det här svaret har fått några kommentarer och det verkar som om det måste finnas ytterligare förtydliganden. Jag ska samla ihop några av mina svar på kommentarerna för att göra det mer flytande.
Datorer är utformade för att spara data, inte förlora den. RAM är flyktigt och placerar därmed dessa data med stor risk.
Vissa data är ”hjälpar” -data. Säg till exempel processer som körs i ditt system som har mycket kort hållbarhet (som de processer som uppdaterar metadata i ditt filsystem). De lever i RAM eftersom deras verktyg är extremt kortlivat. De kräver inte heller ett -parti RAM.
Ett annat exempel på ”hjälpar-data” är den typ av data som används för att återge högkvalitativt ljud och video, gör fotograferingsarbete, laddar kartor och texturer i videospel etc. Att data använder mycket RAM (inte så mycket som 1TB, men ändå är det mer än ditt genomsnittliga Microsoft Word-dokument), men att förlora data är inte lika riskabelt.
(Du spelar någonsin ett videospel och ser meddelandet att inte stänga av maskinen när du se ”spara spel” -symbolen? Ja, det är då din maskin skriver dina data från RAM till disk. Att skriva data från RAM till disk är också en av de mest riskfyllda delarna av att flytta data. Det är hur sparade filer skadas oftast .)
Att ha 1 TB RAM-minne – för den kostnad som jag skrev det här svaret – är användbart för endast ett fåtal få arbetsbelastningar. Generellt sett är dessa arbetsbelastningar allvarliga nummerkrossande uppgifter som annars skulle kräva stora mängder I / O.
Beräkningsarbetsbelastningar i minnet gör kräver enorma mängder RAM. 1TB räcker faktiskt inte. De håller hela databaser i RAM för att göra onda snabba beräkningar. Denna typ av data är dock inte ”hjälpar” -data, och det är inte heller data som enkelt kan rekonstrueras eller laddas om (som du skulle göra med att helt enkelt göra ditt videoprojekt).
De flesta personer – inklusive mig själv – kör inte databaser i minnet eller behöver hålla hela datamängder i minnet för bearbetning.
Så om du har en applikation som sparar data ofta (I / O-överföring till disk), då behöver du inte en stor RAM-storlek. Säg, Microsoft Word i det här exemplet kommer att spara dina data tillbaka till disken regelbundet så att marginalen för fel är liten (om RAM misslyckas mellan sparar, mängden data / arbete som har utförts sedan den senaste I / O-överföringen är förlorad, och det hålls på ett minimum). Det kommer inte att ändras med mer RAM-minne du har.
De flesta applikationer och arbetsbelastningar säger inte till operativsystemet ”Ge mig allt RAM-minne du har.” Så vad du har är ett stort antal applikationer som skapar arbetsbelastningar med 1 TB RAM. Visst, det är snabbt och det skulle vara trevligt att kunna göra det, men är det värt den kostnaden? Till mig? Nej.
De flesta uppgifter som genomsnittskonsumenten arbetar med kräver inte att så stora mängder kapacitet ska förvaras i det flyktiga minnet.
Nu, med 1 TB RAM, har vissa människor föreslagna RAM-diskar. Tyvärr är det exakt användningsfallet som jag hänvisar till att 1TB RAM är minst passar praktiskt.
Om du inte känner till vad en RAM-disk är, är det ett speciellt användningsfall där operativsystemet behandlar en viss mängd minne som en mycket, mycket snabb hårddisk disk. Problemet är att allt som lagras på den RAM-disken är – du gissade det – flyktigt. Att använda en RAM-disk som huvudarbetsyta för din dator är ofta för frestande för många människor, och de är chockade över att se att mycket data som de ansåg vara säkra och säker var det aldrig.
Den som använder en RAM-skiva för verksamhetskritisk datalagring ber om problem. Varje gång du gör något arbete på en RAM-disk och ”sparar” filen sparas den inte permanent . Du måste fortfarande skriva tillbaka all den informationen till en permanent permanent lagringsenhet. Om vi antar 1 TB data är det mycket längre än vad folk inser.
(Obs! RAM-skivor kan automatiseras för att spara till en permanent lagringsenhet, precis som ditt Microsoft Word-dokument gör, men 1 TB tar fortfarande mycket , mycket lång tid att flytta till disk i en nödsituation.)
Virtuella datorer är användbara för speciellt omnämnande här, och jag är tacksam mot Thomas Zoltan för att ta upp den. Virtuella maskiner gör mycket, mycket bra med mycket RAM, och värd-operativsystemet måste kunna leverera det – speciellt om du planerar att vara värd för flera virtuella datorer på samma maskin.
(OBS: Jag förstod ursprungligen Thomas första inledningen, var att de virtuella datorerna skulle använda RAM-minnet, inte lagras på en RAM-disk . Han diskuterade båda användningsfall och jag hade sammanfört dem båda. Jag tror att jag nu förstår vad han försökte säga.)
Naturligtvis använder jag sådana virtuella datorer i mitt testlaboratorium alla tiden. Mina testmaskiner har 128 GB RAM-minne för att kunna hantera snabb spin-up och spin-down av virtuella datorer, och TBH kan de definitivt använda lite mer andningsrum, särskilt eftersom VMwares programvara inte är så mager och menig som den brukade vara.
De flesta människor, men jag (inklusive mig själv), använder inte VSAN- eller vSphere-miljöer i sitt hem. Jag har det i mitt hem lab , men det finns ingenting på de maskinerna som ens kan fjärr betraktas som affärskritiska.
Och i slutändan, jag tror att det är där missuppfattningen ligger i några av kommentarerna till detta svar. Några hur folk tänkte att jag sa att det inte fanns ett användningsfall för så mycket minne alls . Jag tycker det är förbryllande, för vad jag sa var:
[De] pengar som jag skulle få från 1 TB RAM är mer än värt att förlora med så mycket flyktigt minne.
Och det är sant. Att ha äkta, tillgängligt 1TB RAM ( ingen av mina datorer kan till och med använda så mycket RAM! Som i, de har inte förmågan att använd det) är ett mycket dyrt förslag, och pengarna som jag skulle få för det är värt mer än att ha det just nu .
Om 4 eller 5 år? Vem vet. Vi kommer förmodligen att se tillbaka på det här svaret (som vi gör med alla datorrelaterade svar som handlar om hastigheter och flöden) och tänker ”Så pittoreskt! Kommer du ihåg när 1 TB var oöverkomligt ? ” 🙂
Förresten …
Anledningen till att konceptet kom in i diskussionen är att jag hade en kund som gjorde en stor mängd minnesbearbetning (faktiskt 1 TB) , som behövde kunna släppa alla lagrade beräkningar till disk på 8 sekunder. Frågan var (och är fortfarande) att medan arbetsbelastningen beräknade resultaten i en fenomenal takt fanns det inget sätt att spara data till permanent lagring under den tid som systemet skulle stängas av på grund av en nödsituation (brandlarm, failover, varningar för systemtrösklar osv.).
Så frågan blir, hur mycket RAM är ”värt det?” Vad är värdet av en ”lite” bit snabbare per $ / £ / E? Det är det som varje person ska bestämma. För mig har den här gränsen ännu inte passerat.