Jakie jest znaczenie 0 i 1 w kodzie binarnym?


Najlepsza odpowiedź

Żartobliwa odpowiedź: różnica między 1 a 0 w systemie binarnym to 1, ponieważ 1 – 0 = 1.

Nie, ale chodzi o to, przestańmy na chwilę mówić o binarnym i zacznijmy mówić o zestawie 2 możliwych wartości (zwane domeną logiczną). Ta domena logiczna może składać się z par takich jak:

  • Dozwolone, niedozwolone
  • Włączone, wyłączone
  • Włączone, Wyłączone
  • Prawda , Fałsz
  • Tak, Nie
  • Przepływ, utknięcie
  • itd.

Liczby i matematyka w generalnie polega na kodowaniu pojęć mentalnych. Kodujemy ideę liczby 4 zwykle licząc o jeden więcej niż 3, co daje o jeden więcej niż 2 itd.

Tak więc tutaj używamy domeny 2 wartości do zakodowania tych przeciwstawnych pomysłów.

Oczywiście moglibyśmy wybrać 0 oznaczające cokolwiek i 1 oznaczające cokolwiek, ale możemy być ostrożni i upewnić się, że chcemy, aby miały one znaczenie, które będzie dla nas najlepsze.

Patrząc na to z punktu widzenia „płynący vs utknięty”, jeśli przepływ kojarzymy z 1, a utkniemy z 0, to mamy analogię, która pozwala nam również zdefiniować następujące interpretacje:

  • Jeśli istnieją dwa segmenty rury połączone szeregowo i oba płyną (nie są zablokowane), to mamy wypływ z segmentu rury. Możemy nazwać to skrzyżowanie segmentów rur „I”.
  • Jeśli istnieją 2 rury prowadzące do złącza T, jeśli jedna rura lub obie rury wpływają do złącza T, wówczas mamy przepływ w trzecim noga. Możemy nazwać to połączenie typu T „LUB”.

Jeśli zamieniliśmy te pomysły, możemy zamienić, czy przepływ wynosi 0, czy zablokowanie wynosi 1.

Więc, w końcu 0 i 1 są arbitralne, ale pomagają nam kodować informacje, tak jak potrzebujemy.

Można więc twierdzić, że 0 i 1 są bez znaczenia bez jasnej definicji AND i OR w logika, której używasz.

Jednak AND i OR mogą być zdefiniowane w inny sposób. Chodzi o to, aby zrozumieć, że same w sobie są bez znaczenia, ale 0 i 1 mają znaczenie w oparciu o ich związek .

A więc są dychotomia: naprzeciw siebie. W komputerach uzyskujemy to, sprawdzając, czy elektrony przepływają (zwykle interpretowane jako 1), czy też nie (zwykle interpretowane jako 0).

Jednak w przypadku nowoczesnych komputerów jest to prawdopodobnie dokładniejsze (ale nadal nierafinowane przybliżenie), aby powiedzieć, że 0 jest interpretowane jako niewiele lub brak obecnych elektronów, a 1 jest interpretowane jako liczba obecnych elektronów.

Połącz 2 liczby binarne (bity) razem, a otrzymasz 4 możliwe wartości:

  • 00
  • 01
  • 10
  • 11

Połącz razem 3 bity, a get 8. Trwa to do momentu, gdy będziesz mógł zacząć kodować razem z nimi wiele liczb:

  • 000 = 0
  • 001 = 1
  • 010 = 2
  • 011 = 3
  • 100 = 4
  • 101 = 5
  • 110 = 6
  • 111 = 7

Zwiększenie liczby bitów w grupie zwiększa liczbę liczb naturalnych, które można zakodować. Kodowanie staje się wtedy grą. Możesz także zakodować litery:

  • 0000 = a
  • 0001 = b
  • 0010 = c
  • 0011 = d
  • 0100 = e
  • 0101 = f
  • 0110 = g
  • 0111 = h
  • 1000 = i
  • itp.

Chodzi o to, aby móc dostrzec różnicę między napięciem („wtłaczaniem” wiązki elektronów w jeden obszar) a brakiem napięcia w obszarze daje nam różnicę między tymi dwiema wartościami i pozwala nam zakodować wiele rzeczy na komputerach.

Odpowiedź

Cóż, ludzie często mówią, że mają na myśli odpowiednio

false, true off, on

ale zwykle mają na myśli:

0, 1

Jak to możliwe? Po pierwsze, liczba dwójkowa nie różni się od dziesiętnej, możesz mieć tyle cyfr, ile potrzebujesz, z wyjątkiem tego, że każda cyfra to potęga dwóch zamiast dziesięciu. Binarnie 1 to jeden, 10 to dwa, 100 to cztery, a 111 to siedem. Ma sens? Cyfra binarna, pojedyncze 0 lub 1, zwana bitem, nie jest używana do dostarczania żadnych instrukcji i rzadko na tyle, aby przechowywać jakiekolwiek informacje. Tak jak pojedyncza cyfra, nawet dziesiętna, jest dla nas bezużyteczna w większości zastosowań. Zamiast tego inżynierowie komputerowi przypisują różne rozmiary grup bitów, ale znaczenia są nieco arbitralne.

Na przykład ASCII był kiedyś najpowszechniejszym sposobem przechowywania znaków, jak pokazano poniżej.

Jednak kodowanie ASCII zostało w dużej mierze zastąpione różnymi kodowaniami UTF, które obsługują szerszy zakres znaków z wielu języków, które mają znacznie więcej znaków niż Łacińskie liczby ASCII, więc wszystkie te liczby binarne mają teraz inne znaczenie dla większości kontekstów czytelnego tekstu.

W rzeczywistości nawet większość ludzi, którzy pracują z komputerami na niskim poziomie, nie myśli w ten sposób .Liczby rzadko są rozkładane do rozdzielczości pojedynczego bitu, ale częściej do rozdzielczości 8 bitów lub bajtu, a bajt jest często zapisywany jako dwa znaki szesnastkowe (podstawa 16) zamiast 8 znaków binarnych. Spójrz na zestaw instrukcji x86, a zauważysz, że są one wymienione w bajtach szesnastkowych, gdzie od A do F reprezentuje cyfrę od dziesięciu do piętnastu. Lista instrukcji x86 – Wikipedia Może też docenisz, jak wewnętrznie elementy są zbudowane z grup liczb binarnych w logikę, zachowanie i duże informacji.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *