Ein Bit ist kein Bier, sondern eine Zahl. - Computer rechnen ja viel, und dazu ist es notwendig, Zahlen im Computer zu repräsentieren. Und solange es sich nicht um einen Quantencomputer handelt, hantieren sie mit den Werten STROM AN oder STROM AUS.
Stellen wir uns drei Lämpchen vor, die an oder aus sein können. Wieviele Möglichkeiten für ein Leuchtmuster gibt es?
Eine solche Stelle in einer solchen Zahl nennt sich nun: ein Bit!
Ein Bit ist also die grundlegendste Einheit, mit der Rechner rechnen. Das Zahlensystem, das nur die zwei Ziffern 0 und 1 kennt, nennt sich Binärsystem.
Im Dezimalsystem (das wir benutzen) können wir mit drei Stellen die Zahlen von 000 bis 999 darstellen, also 1000 Stück insgesamt. Nun ist 1000 zufällig das Gleiche wie 10*10*10 (=10³). Zufall? Natürlich nicht! Im Binärsystem können wir mit 3 Stellen 8 Zahlen darstellen (die acht Lampenmuster oben), und 8 = 2*2*2 (=8³). Man kann also auch sagen: Mit 3 Bit können wir 8 Zustände (z.B. Zahlen) darstellen.
Da Computer aus sehr kleinen Einheiten aufgebaut sind, neigt man dazu, diese kleinen Einheiten immer symmetrisch aufzubauen - eines hier, eines da. Dadurch ergeben sich Strukturen, die Vielfache (von Vielfachen) von 2 bevorzugen. Und insbesondere ein paar Vielfache von 2 tauchen immer wieder auf:
Binär Dezimal Hexadezimal
0000 0 0
0001 1 1
0010 2 2
0011 3 3
0100 4 4
0101 5 5
0110 6 6
0111 7 7
1000 8 8
1001 9 9
1010 10 A
1011 11 B
1100 12 C
1101 13 D
1110 14 E
1111 15 F
10000 16 10
10001 17 11
213 (10) = 11010101 (2) = 0xD5 (16)
.Wie dem auch sei. Das Bit und das Byte jedenfalls sind die grundlegenden Recheneinheiten des Computers, und das Hexadezimalsystem dient zur besseren Lesbarkeit von Nullen und Einsen.