Verwechslungsgefahr

Das ist der Unterschied zwischen Megabyte und Megabit

Datenstrom aus Nullen und Einsen
Zwischen Megabyte und Megabit gibt es entscheidende Unterschiede
Foto: Getty Images

Megabit (Mbit) und Megabyte (MB) klingen zum verwechseln ähnlich. Deshalb werden sie auch gerne durcheinandergebracht. TECHBOOK erklärt, was die Begriffe bedeuten und wie Sie sie richtig verwenden.

Was ist Megabyte (MB)?

Megabyte bezeichnet einfach ausgedrückt die Größe einer digitalen Datei. Die Grundeinheit dieser Maßeinheit ist das Byte. Zu Beginn der Computergeschichte waren Dateien noch wenige Bytes groß. Mit dem technischen Fortschritt stiegen auch die Dateigrößen. So fasst man 1024 Bytes zu einem Kilobyte (kB) zusammen und 1024 Kilobytes zu einem Megabyte. Das lässt sich vergleichen mit Metern und Kilometern. Mittlerweile sind bereits Smartphonefotos einige MB und Textdateien mehrere kB groß, sodass Dateien im Byte-Bereich im Alltag des normalen PC-Nutzers so gut wie nicht mehr auftauchen. Megabyte und die nächstgrößere Einheit Gigabyte (1 GB = 1024 MB) sind dafür präsenter denn je. Ob beim Datenvolumen auf dem Smartphone, der Downloadgröße von Spielen oder der Speicherkapazität von Festplatten – in all diesen Fällen sprechen wir von Bytes, bzw. Megabytes, Gigabytes und sogar Terabytes.

https://www.techbook.de/easylife/wie-viel-internet-geschwindigkeit-brauche-ich-wirklich

Was ist Megabit (Mbit)?

Bei Megabits bzw. Bits handelt es sich ebenfalls um eine Maßeinheit für eine Datenmenge, denn 1 Byte besteht in heutigen Computersystemen meist aus 8 Bits. Im Unterschied zu Bytes dienen Bits aber auch zur Darstellung eines Informationsgehalts. Bit ist eine Abkürzung für „Binary Digit“, also eine Binärziffer, die die kleinstmögliche Unterscheidung zwischen zwei Zuständen darstellt. Computerinformationen bestehen immer aus zwei Zuständen, „An“ und „Aus“ oder 1 und 0. Ein Bit ist der Träger genau so einer Information. Bits werden zu Bytes zusammengefasst, um zumindest kleinste Datenmengen speichern zu können. Historisch gesehen sind 8 Bit nötig, um einen einzelnen Textbuchstaben darzustellen, weswegen sich diese Einheit als Standard für ein Byte durchgesetzt hat. Ein Bit ist damit die kleinste Informations- und Speichereinheit, während ein Byte die kleinste Datenmenge ist und daher benutzt wird, um den verfügbaren Platz auf einem Speichermedium zu beschreiben. Während Speichergrößen wie schon erwähnt in Bytes angegeben werden, werden Bits vor allem in Verbindung mit Netzwerken benutzt, um Datenübertragungsgeschwindigkeiten anzugeben. Dann aber immer in Bit pro Sekunde, denn Bytes werden durch das Internet immer Bit für Bit geschickt.

Im Alltag begegnen Internetnutzer den Bits meistens im Zusammenhang mit der Geschwindigkeit von DSL-Anschlüssen – hier als Mbit/s oder auch Mbps, sprich Megabit pro Sekunde. In diesem Bereich liegt das größte Fehlerpotential, die Einheiten Megabyte und Megabit zu verwechseln. Denn eine 50.000er-DSL-Leitung verspricht 50 MBit/s und nicht 50 Megabyte pro Sekunde, wie einige immer noch denken. Mbit/s müssen zunächst noch umgerechnet werden, um für die Allgemeinheit wirklich aussagekräftig zu sein.

Wie rechne ich Mbit/s in MB/s um?

Mit Megabits pro Sekunde können nur die wenigsten etwas anfangen, deshalb ist die Umrechnung in Megabyte pro Sekunde durchaus sinnvoll. Da ein Byte aus acht Bits besteht, ist diese folglich nicht allzu schwer. Einfach die Internetgeschwindigkeit (z.B 100 Mbit/s) durch acht teilen und schon haben Sie die maximale Datenmenge in Megabyte ermittelt, welche die Leitung im Optimalfall herunterladen kann. In diesem Beispiel wären das maximal 12,5 Megabyte pro Sekunde.