Beste Antwort
Scherzantwort: Der Unterschied zwischen 1 und 0 im Binärcode ist 1, da 1 – 0 = 1.
Nein, aber hier ist die Sache. Hören wir für einen Moment auf, über binary zu sprechen, und sprechen wir über einen Satz von 2 möglichen Werte (als Boolesche Domäne bezeichnet). Diese boolesche Domäne kann aus Paaren bestehen wie:
- Erlaubt, Nicht erlaubt
- Aktiviert, Deaktiviert
- Ein, Aus
- Wahr , Falsch
- Ja, Nein
- Fließen, stecken bleiben
- usw.
Der Zweck von Zahlen und Mathematik in Im Allgemeinen ist es, mentale Konzepte zu kodieren. Wir codieren die Idee der Zahl 4 normalerweise, indem wir eins mehr als 3 zählen, was eins mehr als 2 usw. zählt.
Hier verwenden wir also diese Domäne von 2 Werten, um diese gegensätzlichen Ideen zu codieren.
Natürlich könnten wir 0 auswählen, um was auch immer zu bedeuten, und 1, um was auch immer zu bedeuten, aber wir möchten vielleicht vorsichtig sein und sicherstellen, dass sie die Bedeutung haben, die für uns am besten funktioniert.
Wenn wir es unter dem Gesichtspunkt von „Fließen gegen Feststecken“ betrachten, wenn wir Fließen mit 1 verbinden und mit 0 festhalten, dann haben wir eine Analogie, die es uns ermöglicht, auch die folgenden Interpretationen zu definieren:
- Wenn zwei Rohrsegmente in Reihe geschaltet sind und beide fließen (nicht stecken bleiben), fließt das Rohrsegment heraus. Wir können diesen Übergang von Rohrsegmenten als „UND“ bezeichnen.
- Wenn zwei Rohre zum T-Übergang führen, wenn entweder ein Rohr oder beide Rohre in den T-Übergang fließen, dann haben wir den Fluss im dritten Bein. Wir können diese T-Verbindungsstelle als „ODER“ bezeichnen.
Wenn wir diese Ideen vertauschen, können wir austauschen, ob der Durchfluss 0 oder der feststeckende Wert 1 ist.
Also, Am Ende sind 0 und 1 willkürlich, aber sie helfen uns, Informationen nach Bedarf zu codieren.
Es kann also behauptet werden, dass 0 und 1 ohne eine klare Definition von UND und ODER in der Liste bedeutungslos sind Logik, die Sie verwenden.
AND und OR können jedoch auf andere Weise definiert werden. Der Punkt ist zu verstehen, dass sie allein bedeutungslos sind, aber 0 und 1 haben die Bedeutung basierend auf ihrer Beziehung .
Also sind sie a Dichotomie: einander gegenüber. In Computern erhalten wir dies, indem wir prüfen, ob Elektronen fließen (normalerweise als 1 interpretiert) oder nicht (normalerweise als 0 interpretiert).
Für moderne Computer ist dies jedoch wahrscheinlich genauer (aber immer noch eine unraffinierte Näherung), um zu sagen, dass 0 als wenige bis keine vorhandenen Elektronen und 1 als viele vorhandene Elektronen interpretiert werden.
Kombinieren Sie 2 Binärzahlen (Bits) und Sie erhalten 4 mögliche Werte:
- 00
- 01
- 10
- 11
Setzen Sie 3 Bits zusammen und Sie get 8. Dies wird fortgesetzt, bis Sie beginnen können, viele Zahlen zusammen mit ihnen zu codieren:
- 000 = 0
- 001 = 1
- 010 = 2
- 011 = 3
- 100 = 4
- 101 = 5
- 110 = 6
- 111 = 7
Durch Erhöhen der Anzahl der Bits in einer Gruppierung wird die Anzahl der natürlichen Zahlen erhöht, die Sie codieren können. Die Codierung wird dann zum Spiel. Sie können auch Buchstaben codieren:
- 0000 = a
- 0001 = b
- 0010 = c
- 0011 = d
- 0100 = e
- 0101 = f
- 0110 = g
- 0111 = h
- 1000 = i
- usw.
Der Punkt ist, dass man den Unterschied zwischen einer Spannung (dem „Erzwingen“ eines Elektronenbündels in einen Bereich) und einem Mangel erkennen kann Die Spannung in einem Bereich gibt uns den Unterschied zwischen diesen beiden Werten und ermöglicht es uns, zahlreiche Dinge auf Computern zu codieren.
Antwort
Nun, die Leute sagen oft, sie meinen jeweils
false, true off, on
aber normalerweise bedeuten sie:
0, 1
Wie kann das sein? Zunächst einmal unterscheidet sich Binär nicht von Dezimal, Sie können so viele Ziffern haben, wie Sie benötigen, außer dass jede Ziffer eine Zweierpotenz statt zehn ist. In Binär ist 1 eins, 10 ist zwei, 100 ist vier und 111 ist sieben. Sinn ergeben? Eine binäre Ziffer, eine einzelne 0 oder 1, die als Bit bezeichnet wird, wird nicht zum Bereitstellen von Anweisungen verwendet und selten genug zum Speichern von Informationen. Genau wie eine einzelne Ziffer auch in Dezimalzahl für uns für die meisten Zwecke nutzlos ist. Stattdessen werden unterschiedlichen Größen von Gruppen von Bits von Computeringenieuren Bedeutungen zugewiesen, die jedoch etwas willkürlich sind.
Beispielsweise war ASCII die häufigste Methode zum Speichern von Zeichen, wie unten gezeigt.
Die ASCII-Codierung wurde jedoch weitgehend durch verschiedene UTF-Codierungen ersetzt, die einen größeren Bereich von Zeichen aus vielen Sprachen unterstützen, die weit mehr Zeichen als die enthalten Lateinische von ASCII, daher haben alle diese Binärzahlen für die meisten Kontexte von lesbarem Text unterschiedliche Bedeutungen.
Tatsächlich denken selbst die meisten Leute, die auf niedriger Ebene mit Computern arbeiten, nicht so binär .Zahlen werden selten auf die Auflösung eines einzelnen Bits, sondern häufiger auf die Auflösung von 8 Bit oder einem Byte heruntergebrochen, und das Byte wird häufig als zwei hexadezimale Zeichen (Basis 16) anstelle von 8 Binärzeichen geschrieben. Werfen Sie einen Blick auf den x86-Befehlssatz und Sie werden feststellen, dass sie in hexadezimalen Bytes aufgeführt sind, wobei A bis F zehn bis fünfzehn in einer Ziffer darstellen. x86-Anweisungslisten – Wikipedia Vielleicht werden Sie auch verstehen, wie intern Dinge aus Gruppen von Binärzahlen in Logik, Verhalten und großen Mengen von aufgebaut werden Informationen.