Was meinen wir, wenn wir sagen, dass Computer Nullen und Einsen verwenden?

Beste Antwort

Sehr gute Antworten bereits hier. Um zu versuchen, etwas mehr zu dem hinzuzufügen, was bereits gesagt wurde:

Ein Computer verwendet dieselbe Idee (dh viele Ein / Aus-Signale), um Ergebnisse zu speichern / zu erzeugen. Daher „denkt“ ein Computer in EIN oder AUS, wir verwenden nur die Darstellung von 1 für EIN und 0 für AUS …

Meistens erledigt es all diese „raffinierten“ Dinge durch sehr vereinfachte Mathematik – nur mit Zahlen. Es werden jedoch Zahlen verwendet auf eine andere Weise als Sie oder ich. Wir neigen dazu, Zahlen als 0, 1, 2, 3, … 9, 10 usw. zu betrachten. Ein Computer hat dieses Privileg nicht, er kann nur über 0 „nachdenken“ und 1. Aber das bedeutet immer noch, dass es die gleichen Berechnungen wie mit unseren 10 (oder anderen) Ziffern durchführen kann. Der Grund dafür ist, dass der Computer auf die gleiche Weise, wie wir uns für eine andere Ziffer entscheiden, „entscheidet“, mehr zu verwenden. Das heißt, Was ist nach 9? 10 Natürlich wiederholen wir nur ein Muster, nicht wahr?

Dies wird als Basis des von uns verwendeten Zahlensystems bezeichnet. Z.B. Die normale Verwendung durch Menschen ist Basis 10 (oder Dezimalzahl), und der Computer verwendet Binärdaten (oder Basis 2). Wenn ein Computer zählt, zählt er wie folgt: 0 => 0 1 => 1 2 => 10 3 => 11 4 => 100 5 => 101 … 9 => 1001 10 => 1010 11 => 1011 usw.

Es gibt auch andere Möglichkeiten, manchmal verwenden wir sie, um die Methode des Computers etwas genauer abzugleichen. ZB könnten wir in hexadezimaler Basis 16 anstelle der üblichen Basis 10 zählen. In diesem Fall haben wir Wir haben 6 zusätzliche Glyphen, die zu den möglichen Ziffern hinzugefügt werden können. Normalerweise verwenden wir diese (wir könnten auch mit 8-Oktal-Basis oder was auch immer wir wählen) verwenden, weil sie mit den Potenzen von 2 übereinstimmen, die ein Binärsystem verwendet – dh die Basis 16 fällt genau auf die Zweierpotenzen (einige überspringen, aber niemals auf etwas fallen, das keine Zweierpotenz ist, wie es das Basis-10-System tut). Der größte Segen dabei ist, dass die Anzahl der in hexadezimal geforderten Stellen proportional zur Anzahl der Stellen ist in bin (in diesem Fall wird jede Ziffer in Hex auf 4 Ziffern in bin abgebildet – Lose, die einfacher in / von konvertiert werden können). Wenn wir hexadezimal (Basis 16) verwenden, würden wir wie folgt zählen: Dec => Hex => Bin .. 9 => 9 => 1001 10 => A. => 1010 11 => B => 1011 … 15 => F => 1111 16 => 10 => 10000 17 => 11 => 10001 … 31 => 1F => 11111 32 => 20 => 100000 33 => 21 => 100001 …

Daraus werden alle Formen der Mathematik so gemacht, wie Sie Mathematik gelernt haben. Z.B. Hinzufügen von 2 Zahlen:

\_\_dec => hex => bin

25 19 11001

+ 16 10 10000

----------------------

31 29 01001

+ 10 100000 (carry)

----------------------

41 29 101001

Die gleiche Art von Dingen gilt für alle Mathematik, Multiplikation, Division, Subtraktion usw. Und von dort aus erstreckt sie sich auch auf weitere Dinge wie Wurzeln, Exponenten, Trigger usw.

Alles andere, was der Computer anzeigt, ist nur eine andere Art, diese Zahlen darzustellen. Z.B. Der Text auf dieser Seite besteht nur aus einer Reihe von Zahlen, die jeweils ein bestimmtes „Verständnis“ haben, da eine bestimmte Zahl ein bestimmtes Zeichen darstellt. Eine der Hauptmethoden zum Codieren von Buchstaben ist die ASCII-Sequenz ( ASCII-Zeichencodes und Konvertierung von HTML-, Oktal-, Hex- und Dezimaldiagrammen ). Insofern erhält der Buchstabe A die Zahl 65 (dezimal), also 41 (hex) und 1000001 (bin).

Aber normalerweise müssen solche Zahlen geteilt werden, sonst wissen wir nicht, wo eine startet und ein anderer stoppt – Computer haben nicht einmal das Privileg, Leerzeichen zu verwenden. Um dies zu umgehen, verwendet der Computer festgelegte Gruppen von Binärziffern. Normalerweise in 8er-Gruppen (Bytes genannt), da dies an sich eine Zweierpotenz ist und eine einigermaßen anständige Anzahl möglicher Zeichen bietet (256 Möglichkeiten). Wenn die Zahl niedrig ist, wird der obere Teil nur mit Nullen gefüllt. Tatsächlich würde ein A in einem Computer als 01000001 gespeichert, wobei die erste nicht benötigte Ziffer mit einer 0 aufgefüllt wird. Es gibt auch andere Möglichkeiten, z. UTF8 sagt im Grunde: „Wenn das erste Bit eine 1 ist, dann folgen auf diese weitere 8 Ziffern, wodurch der Code um noch mehr Möglichkeiten erweitert wird.“

Und schließlich Dinge wie Grafiken / Bilder / 3d / sound / etc. werden auch alle nur codiert, indem jeder Variante eine andere Nummer angezeigt wird. Beispielsweise bestehen die auf diesem Bildschirm angezeigten Farben aus kleinen Punkten, die jeweils eine bestimmte Farbe haben (normalerweise in etwas wie RGB – Rot codiert) / Grün / Blau-Intensität als Zahl von 0 bis (sagen wir) 255 für jede).

Es wird noch wichtiger, wenn wir uns die Aktionen ansehen, die ein Computer ausführen kann. Dies sind auch nur „Zahlen“. codiert, um zu bedeuten, dass verschiedene „Dinge passieren müssen“. Beispielsweise kann die CPU des Computers einen Befehlssatz (dh eine Kodierung verschiedener möglicher Aktionen) haben, in dem einer von ihnen der Befehl ist, Zahlen zu addieren, ein anderer zu subtrahieren, ein anderer zu Tauschen Sie sie von 1s auf 0s und umgekehrt usw. usw.Daraus besteht „Software“ – den Ein / Aus-Signalen, die wir als analog zu 1 und 0 betrachten, in Mustern, die den Aktionen entsprechen, die die Software von der CPU ausführen muss.

Aber da alles damit beginnt Ein / Aus, was entweder als 1 oder 0 interpretiert wird … ein Computer verwendet nur 1s und 0s. Dies geschieht einfach, indem die Muster von Einsen und Nullen betrachtet werden, die aufeinander folgen. Das Muster gibt den 1 und 0 „Bedeutung“, für sich genommen haben sie nur eine sehr begrenzte Bedeutung.

Antwort

Es bedeutet normalerweise, dass wir Computer nicht verstehen.

Ernsthaft.

Wenn Sie sehen möchten, warum es verwirrend ist, suchen Sie nicht weiter als bis zum Netzschalter Ihres Computers. Sehen Sie dieses lustig aussehende Dreizack-Symbol? Haben Sie sich jemals gefragt, was das bedeutet?

Das ist eine 1, die einer 0 überlagert ist.

Warum?

Zurück auf den frühesten IBM-PCs gab es eine große, klobiger Wippschalter mit der Bezeichnung:

1 – Ein 0 – Aus

Im Laufe der Zeit wurden die Schalter kleiner und wurden schließlich zu Knöpfen, was bedeutete, dass all diese Worte unsinnig waren, also bekamen wir die Symbol, das jeder kennt, aber niemand versteht.

Das ist so ziemlich alles, was Sie über diese Frage wissen müssen: Computerleute sind irgendwie dumm oder zumindest faul.

Aber das “ Ich vermute, es ist nicht zufriedenstellend.

Der Schalter repräsentiert zwei Zustände, Ein und Aus. Die Tasten tun dasselbe, außer dass der Zustand für den zufälligen Beobachter unsichtbar ist, sodass wir Anzeigelampen benötigen, um uns darüber zu informieren der interne Schalter.

Aber es ist weit verbreiteter als dies. Wenn Sie im Computer schrumpfen, befinden sich in den Mikrochips Transistoren, die (bitte sagen Sie keinem Elektrotechniker, dass ich das gesagt habe) wie winzige Schalter aussehen. Sie lassen die Stromversorgung durch (ein) oder sie schalten sie nicht aus ), und sie wurden „arrangiert, um die Arbeit der Datenverarbeitung zu erledigen. Bevor wir Transistoren weit verbreitet hatten, verwendeten wir Relais für den gleichen Zweck, Schalter, um einen Zustand zu speichern, so wie sich Ihr Lichtschalter“ erinnert „, dass Sie die Lichter wollten on.

Wenn wir über die verarbeiteten Daten sprechen, möchten wir die Ein / Aus-Zustände der Transistoren ablesen (irgendwie; ich vereinfache dies hier, aber wenn Sie nachschlagen möchten Wie der Computerspeicher funktioniert, werde ich hier warten. Wir wollen etwas Kompakteres als „Ein, Ein, Aus, Ein, Ein, Aus, Aus, Aus“. Ich tippe und tippe ungefähr ein halbes Dutzend Fehler beim Tippen, auch wenn ich keinen bestimmten Wert im Auge habe, wenn Sie verstehen wollen, warum das nicht fliegen würde. Deshalb schreiben wir sie tatsächlich als Nullen und Einsen, wie z 11011000.

Aber selbst das ist etwas langweilig, sodass wir die Bits span gruppieren könnten > (Binärziffern) in Dreiergruppen, die oktale (Basis-8) Zahlen sind, 330 Fall. Das ist verwirrend, daher verwenden wir eher hexadezimale (Basis-16) Zahlen, die vier Bits entsprechen, D8 hier.

Die Verwendung von Zweierpotenzen ist nützlich, da dies bedeutet (wenn wir uns auf einem primitiven Computer befinden, auf dem dies möglich ist), dass wir die Signale auf den Linien in einer Gruppe betrachten können. Die obigen Darstellungen sind also praktisch, während 216 (die Dezimaldarstellung) für die Person, die mit dem Computer zu tun hat, nicht von großem Nutzen wäre.

Aber um auf den Punkt zurückzukommen, tut der Computer selbst dies nicht Verwenden Sie alles andere als Ein-Aus-Zustände, die wir als Nullen und Einsen, hexadezimale Ziffern, Zahlen, Zeichen (Buchstaben, Ziffern, Symbole und Leerzeichen), Anweisungen und eine beliebige Anzahl anderer Dinge interpretieren. Der Computer hat jedoch keine Ahnung von dieser Interpretation.

Nun, Sie können argumentieren, dass die Anweisungen tatsächlich verstanden werden, da die Ein-Aus-Zustände tatsächlich eine Entscheidung darüber erzwingen, was als nächstes zu tun ist. Aber definitiv nicht der Rest.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.