Binär in der Informatik

Wie Computer in Einsen und Nullen denken

Binär verstehen

Jedes Foto, Video, Programm und jede Website existiert letztlich als Muster aus Einsen und Nullen. Binär ist nicht nur ein weiteres Zahlensystem – es ist die Grundlage aller digitalen Technologie. Das Verständnis von Binär enthüllt, wie Computer auf ihrer grundlegendsten Ebene funktionieren.

Bits und Bytes

Das Bit

  • Kleinste Dateneinheit
  • Einzelne Binärziffer: 0 oder 1
  • "Binary digit" abgekürzt zu "Bit"
  • Kann zwei Zustände darstellen (ja/nein, ein/aus, wahr/falsch)

Das Byte

  • 8 Bits zusammengefasst
  • Kann 2⁸ = 256 verschiedene Werte darstellen (0-255)
  • Standardeinheit für Zeichenspeicherung
  • Grundlage für größere Einheiten (KB, MB, GB)

Größere Einheiten

EinheitGrößeWerte
Byte8 Bits256
Wort (16-Bit)2 Bytes65.536
Doppelwort (32-Bit)4 Bytes~4,3 Milliarden
Vierfachwort (64-Bit)8 Bytes~18,4 Trillionen

Wie Daten dargestellt werden

Text (Zeichen)

  • ASCII: 7 Bits, 128 Zeichen
  • Erweitertes ASCII: 8 Bits, 256 Zeichen
  • Unicode (UTF-8): Variable Länge, Millionen von Zeichen

Beispiel: 'A' = 01000001 (65 in Dezimal)

Zahlen

  • Ganzzahlen: Direkte Binärdarstellung
  • Negative Zahlen: Zweierkomplement
  • Dezimalzahlen: Gleitkomma (IEEE 754)

Bilder

  • Pixel werden als Zahlen dargestellt
  • RGB: 3 Bytes pro Pixel (je 8 Bits für Rot, Grün, Blau)
  • 1920×1080 Bild ≈ 6,2 Millionen Bytes unkomprimiert

Audio

  • Schallwellen werden als Zahlen abgetastet
  • CD-Qualität: 16-Bit-Abtastwerte, 44.100 Mal pro Sekunde

Binäre Arithmetik

Addition

Wie bei Dezimal, aber Übertrag bei 2:

  • 0 + 0 = 0
  • 0 + 1 = 1
  • 1 + 0 = 1
  • 1 + 1 = 10 (0, Übertrag 1)
  • 1 + 1 + 1 = 11 (1, Übertrag 1)

Beispiel: 1011 + 1101

  1011
+ 1101
------
 11000

= 11 + 13 = 24 ✓

Logikgatter

Hardware implementiert Binäroperationen durch Logikgatter:

Grundlegende Gatter

GatterFunktionWahrheitswert
ANDBeide Eingänge müssen 1 sein1 AND 1 = 1
ORMindestens ein Eingang ist 11 OR 0 = 1
NOTInvertiert den EingangNOT 1 = 0
XORGenau ein Eingang ist 11 XOR 1 = 0
NANDNOT AND1 NAND 1 = 0

Komplexe Operationen (Addition, Vergleich) werden aus Kombinationen dieser einfachen Gatter aufgebaut.

Vorzeichenbehaftete Zahlen: Zweierkomplement

So stellen Computer negative Zahlen dar:

Methode

  1. Alle Bits invertieren
  2. 1 addieren

Beispiel: -5 in 8-Bit

  • 5 = 00000101
  • Invertieren: 11111010
  • 1 addieren: 11111011
  • -5 = 11111011

Warum Zweierkomplement?

  • Addition funktioniert natürlich (keine Sonderfälle)
  • Nur eine Darstellung für Null
  • Einfach in Hardware zu implementieren

Bitweise Operationen in der Programmierung

Programmiersprachen bieten Operatoren zur Bitmanipulation:

Häufige Operationen

  • AND (&): Bestimmte Bits maskieren
  • OR (|): Bestimmte Bits setzen
  • XOR (^): Bits umschalten, Verschlüsselung
  • NOT (~): Alle Bits invertieren
  • Linksverschiebung (<<): Multiplikation mit 2ⁿ
  • Rechtsverschiebung (>>): Division durch 2ⁿ

Beispiel: Prüfen ob eine Zahl gerade ist

n & 1 == 0 bedeutet n ist gerade

(Das letzte Bit bestimmt ungerade/gerade)

Binär in der modernen Informatik

Speicheradressen

  • 32-Bit: Kann 2³² = 4 GB adressieren
  • 64-Bit: Kann 2⁶⁴ = 16 Exabytes adressieren

Netzwerkadressen

  • IPv4: 32 Bits (z. B. 192.168.1.1)
  • IPv6: 128 Bits

Dateigrößen

  • Alle Dateien sind Folgen von Bytes
  • Dateityp wird durch Inhalt/Struktur bestimmt

Verschlüsselung

  • AES verwendet 128-, 192- oder 256-Bit-Schlüssel
  • SHA-256 erzeugt 256-Bit-Hashwerte

Fazit

Binär ist die Sprache aller digitalen Systeme, weil elektronische Bauteile von Natur aus zwei Zustände haben. Jedes Stück digitaler Daten – Text, Bilder, Audio, Video, Programme – wird letztlich als Bitmuster dargestellt. Das Verständnis von Binär erhellt die Funktionsweise von Computern: von den Logikgattern, die Operationen durchführen, über die Bytes, die Zeichen speichern, bis zu den Bits, die über Netzwerke übertragen werden. Auch wenn wir selten direkt mit Binär interagieren, liegt es allem in der digitalen Welt zugrunde.

Verwandte Artikel

Binär in der Informatik: Wie Computer Einsen und Nullen nutzen | YounitConverter